ChatGPT : OpenAI lance GPT-4o, un nouveau modèle d’IA générative accessible gratuitement !
Lors de son événement "Spring Update", OpenAI a dévoilé son nouveau modèle de langage : GPT-4o. Dérivé de GPT-4, il est accessible à tout le monde et gratuitement ! Faisons le point.
GPT-4o est en quelque sorte une évolution du modèle de langage GPT-4, ce dernier étant déjà accessible depuis plusieurs mois aux abonnés payants de ChatGPT. OpenAI affirme que GPT-4o est plus rapide et plus "intelligent", mais aussi meilleur en multimodal. D'ailleurs, c'est de là que vient son nom, car le "o" signifie "omnimodel", faisant référence au fait que c'est un modèle multimodal.
GPT-4o est plus pertinent dans l'analyse de données et il est doté de meilleures capacités en interprétation de texte, d’image et d’audio. "Par exemple, vous pouvez maintenant prendre une photo d'un menu dans une autre langue et parler à GPT-4o pour le traduire, en apprendre davantage sur l'histoire et la signification de la nourriture, et obtenir des recommandations.", peut-on lire dans l'annonce officielle.
GPT-4o est gratuit pour tous les utilisateurs !
Jusqu'à présent, il convenait de disposer d'un abonnement payant à ChatGPT Plus pour pouvoir utiliser le modèle GPT-4 par l'intermédiaire de ChatGPT ou de son API. Les utilisateurs gratuits, quant à eux, étaient limités à l'utilisation de GPT-3.5.
Désormais, GPT-4o est disponible gratuitement et pour tout le monde : une excellente nouvelle pour tester sans frais ce nouveau modèle. Ceux qui paient seront moins limités et priorisés : "Les utilisateurs Plus auront une limite de messages jusqu'à 5 fois supérieure à celle des utilisateurs gratuits, et les utilisateurs Team et Enterprise auront des limites encore plus élevées.", peut-on lire sur le site d'OpenAI.
Évolution de ChatGPT Voice
OpenAI a également annoncé des nouveautés pour ChatGPT Voice, la fonction vocale de ChatGPT. Plutôt que de converser à l'écrit avec ChatGPT, vous pouvez l'utiliser avec la voix, comme les autres assistants vocaux du marché. La nouvelle version sera plus rapide et plus naturelle, avec un temps de réponse moyen de 320 millisecondes, similaire à celui d'un humain dans une conversation. Dans les prochaines semaines, elle sera disponible en version alpha pour les abonnés à ChatGPT Plus.
OpenAI veut frapper fort en s'appuyant sur GPT-4o pour ChatGPT Voice, de façon à ce que le même réseau neuronal soit utilisé pour traiter, en temps réel, les entrées et sorties pour le texte, l'audio et la vision. De plus, il sera capable de détecter les émotions des humains.
"Par exemple, vous pourriez montrer à ChatGPT un match de sport en direct et lui demander de vous en expliquer les règles.", peut-on lire. OpenAI a effectué plusieurs démonstrations impressionnantes en direct et mis en ligne cette vidéo :
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
D'ailleurs, dans quelques heures, Google doit annoncer des nouveautés pour son IA générative, Gemini, alors forcément, l'entreprise américaine est attendue au tournant...