Les développeurs peuvent désormais affiner le modèle GPT-3.5 Turbo d’OpenAI afin d’améliorer ses performances sur des tâches spécifiques, ce qui le rend potentiellement plus efficace et moins coûteux que le modèle GPT-4 plus avancé d’OpenAI.
Le réglage fin permet aux utilisateurs de mieux façonner les comportements et les capacités d’un grand modèle de langage déjà formé en l’entraînant davantage sur des données personnalisées soigneusement choisies. Un chatbot sur la santé et le bien-être, par exemple, alimenté par un modèle linguistique affiné sur des conseils médicaux supplémentaires, sera plus susceptible de générer des réponses plus précises et plus efficaces qu’un système général prêt à l’emploi.
Dans certains cas, il peut donc être préférable pour les organisations d’affiner le modèle GPT-3.5 Turbo d’OpenAI plutôt que d’utiliser le modèle GPT-4, plus puissant. « Les premiers tests ont montré qu’une version affinée de GPT-3.5 Turbo peut égaler, voire surpasser, les capacités de base de GPT-4 pour certaines tâches précises », a déclaré OpenAI. Le super laboratoire d’apprentissage automatique a déclaré qu’il devrait être possible, par exemple, de guider le modèle lors du réglage fin afin qu’il génère systématiquement un texte dans une langue, un ton ou une structure spécifique.
En l’absence de réglage fin, les développeurs doivent trouver de meilleures invites pour indiquer au grand modèle linguistique comment se comporter et accomplir les tâches.
Chaque fois que le modèle est exécuté, OpenAI facture aux utilisateurs le nombre de jetons qu’il doit traiter dans l’invite d’entrée ainsi que le nombre de jetons générés dans sa sortie. Un jeton est une partie d’un mot ; pour les mots anglais, quatre caractères environ équivalent à un jeton. Un réglage fin peut contribuer à réduire ces coûts s’il est possible d’obtenir les mêmes performances du modèle en utilisant une invite d’entrée plus courte.
GPT-3.5 Turbo est une famille de modèles que l’entreprise a présentée au début de l’année et qui est idéale pour les cas d’utilisation qui ne sont pas spécifiques au chat. Il peut traiter 4 000 jetons à la fois, ce qui, selon OpenAI, représente le double de ce que les modèles précédemment proposés pouvaient interpréter. L’entreprise a ajouté que les premiers testeurs ont été en mesure de faire des invites 90 % plus courtes après avoir amorcé GPT-3.5 avec des instructions précises.
Une réelle économie
Un modèle GPT-3.5 Turbo personnalisé peut permettre aux développeurs d’économiser de l’argent à long terme s’il est moins coûteux à exploiter et tout aussi efficace, voire plus, dans certains cas d’utilisation que le modèle GPT-4 prêt à l’emploi, selon OpenAI.
Nous voyons bien que c’est le cas : GPT-4 est plus cher à utiliser que GPT-3.5 Turbo ; si un modèle GPT-3.5 Turbo finement ajusté continue d’être moins cher que GPT-4, alors, eh bien, il y a des économies à faire. Le prix de GPT-3.5 est de 0,0080 dollar pour 1 000 jetons pour la formation, de 0,0120 dollar pour 1 000 jetons pour l’utilisation des entrées et de 0,0120 dollar pour 1 000 jetons de la sortie du chatbot.
N’oubliez pas non plus : GPT-4 et GPT-3.5 sont au cœur du chatbot ChatGPT ; ils sont également accessibles depuis l’API d’OpenAI. Comme toujours avec les LLM, prenez-les avec des pincettes : ils sont susceptibles d’inventer des choses ou de se tromper avec tant d’assurance que vous ne vous en rendrez peut-être même pas compte.