fermer
Intelligence Artificielle

OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées

OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées
OpenAI révolutionne avec GPT-4o Long Output : 64 000 tokens pour des réponses ultra-détaillées

OpenAI continue de surprendre le monde de l’IA avec des innovations, malgré de récentes préoccupations financières. La société, leader dans le domaine de l’IA générative, vient de dévoiler discrètement une nouvelle variante de son modèle GPT-4o : le GPT-4o Long Output.

Ce nouveau modèle offre une capacité de sortie étendue de 64 000 tokens, contre 4 000 pour le modèle initial, soit une augmentation de 16x.

Qu’est-ce qu’un token et pourquoi est-ce nécessaire ?

Les tokens sont des représentations numériques de concepts, constructions grammaticales et combinaisons de lettres et chiffres, organisés selon leur signification sémantique dans un modèle de langage. Par exemple, le mot « Bonjour » est un token, tout comme « Salut ». Vous pouvez explorer une démonstration interactive des tokens via le Tokenizer d’OpenAI.

Cette extension répond au retour des clients d’OpenAI qui nécessitent des contextes de sortie plus longs.

La phase de test alpha durera quelques semaines, permettant à OpenAI de collecter des données sur l’efficacité de cette capacité étendue. Cette nouvelle fonctionnalité est particulièrement avantageuse pour les applications nécessitant des sorties détaillées et étendues, comme l’édition de code et l’amélioration de l’écriture. En offrant des sorties plus longues, le modèle GPT-4o peut fournir des réponses plus complètes et nuancées, bénéfique pour ces cas d’utilisation.

Distinction entre contexte et sortie

Depuis son lancement, GPT-4o offrait une fenêtre contextuelle maximale de 128 000 tokens, incluant à la fois les tokens d’entrée et de sortie. Pour GPT-4o Long Output, cette fenêtre reste la même, mais la capacité de sortie est portée à 64 000 tokens, contre 4 000 auparavant. Cela signifie que les utilisateurs peuvent désormais fournir jusqu’à 64 000 tokens d’entrée pour recevoir jusqu’à 64 000 tokens en sortie, s’ils souhaitent privilégier des réponses plus longues.

Tarification compétitive

Le modèle GPT-4o Long Output est proposé à un tarif de 6 dollars par million de tokens d’entrée et 18 dollars par million de tokens de sortie. En comparaison, le tarif du GPT-4o classique est de 5 dollars par million de tokens d’entrée et 15 dollars par million de tokens de sortie, et le GPT-4o mini est à 0,15 dollar par million de tokens d’entrée et 0,60 dollar par million de tokens de sortie. Cette tarification agressive reflète la volonté d’OpenAI de rendre l’IA puissante accessible à un large éventail de développeurs.

L’alpha test en cours fournira des insights précieux sur les applications pratiques et les avantages potentiels du modèle à sortie longue. Si les retours des premiers partenaires sont positifs, OpenAI pourrait envisager d’étendre cette capacité à un plus large public, permettant ainsi à un plus grand nombre d’utilisateurs de bénéficier de sorties améliorées.

Avec le lancement de GPT-4o Long Output, OpenAI espère répondre à une gamme encore plus large de demandes clients et alimenter des applications nécessitant des réponses détaillées.

Tags : GPT-4oGPT-4o Long OutputOpenAI
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.