Ce 13 mai, OpenAI a révélé son dernier modèle, GPT-4o, ainsi que des mises à jour majeures pour ChatGPT et l’API associée. Dirigé par la C.T.O. Mira Murati, l’événement a marqué une étape importante dans l’évolution de l’interaction homme-machine.
Au cœur de cette annonce se trouve GPT-4o, le dernier-né de la famille des modèles de langage d’OpenAI. Contrairement aux spéculations sur un éventuel GPT-5, ce modèle promet une expérience encore plus immersive grâce à ses capacités multimodales.
En effet, en plus d’une amélioration significative de la reconnaissance vocale, GPT-4o intègre désormais la reconnaissance d’image en temps réel. Cette capacité « omni » permet à l’utilisateur d’interagir avec l’IA en utilisant à la fois la voix et la vue, ouvrant ainsi la voie à une gamme de nouvelles applications allant de la traduction instantanée à l’assistance aux devoirs.
En parallèle, OpenAI a annoncé des changements majeurs dans le modèle économique de ChatGPT. Désormais, de nombreuses fonctionnalités exclusives auparavant réservées aux abonnements payants, telles que l’utilisation de GPT-4o et la reconnaissance d’image, sont disponibles gratuitement, bien que limitées en termes de nombre de requêtes. Les abonnés payants bénéficieront de quotas de requêtes plus élevés ainsi que d’un accès prioritaire en période de forte demande.
Une application native pour macOS
Enfin, OpenAI a dévoilé une application de bureau native pour macOS, offrant aux utilisateurs une expérience encore plus fluide et intégrée avec ChatGPT.
Cette application permet non seulement de converser avec l’IA par la voix ou le texte, mais aussi de capturer et partager facilement ce qui est affiché à l’écran, ouvrant ainsi de nouvelles possibilités d’assistance et de collaboration.