Le nouveau challenger du ChatGPT d’OpenAI vient de l’entreprise qui fabrique le populaire générateur d’images d’IA, Stable Diffusion. Connu sous le nom de StableLM, Stability AI a développé ce chatbot open source pour démocratiser l’accès aux modèles de langage avancés.
Stability AI a récemment annoncé la version alpha de StableLM, soulignant qu’il s’agit d’une solution plus petite et plus efficace que la plupart des autres. StableLM n’utilise que 3 à 7 milliards de paramètres, soit 2 à 4 % de la taille du modèle de 175 milliards de paramètres de ChatGPT.
Tout comme Stable Diffusion est un générateur d’images plus accessible qui peut être étendu par des développeurs tiers, StableLM offre la même solution gratuite et open source sous la forme d’un chatbot d’IA accessible à tous.
Grâce à un entraînement sur un nouvel ensemble de données expérimentales d’EleutherAI appelé « The Pile », StableLM peut mener des conversations et écrire du code avec des performances élevées. Stability AI note que cet ensemble de données contient 1,5 trillion de tokens, soit trois fois plus que l’ensemble de données utilisé pour entraîner la plupart des modèles d’IA. ChatGPT a été formé sur « The Pile », mais a été affiné par la suite, notamment grâce à l’apprentissage par renforcement qui permet de réduire les résultats erronés. ChatGPT a considérablement progressé depuis qu’il a été rendu public, et la plupart des gens estiment qu’il est le chef de file des chabots d’IA.
Un modèle d’IA très efficace est essentiel pour Stability AI, qui souhaite faire fonctionner StableLM sur des systèmes moins onéreux et des GPU moins puissants. Vous pouvez installer et exécuter la version alpha de StableLM dès aujourd’hui. Les instructions se trouvent dans le dépôt GitHub, ainsi qu’un carnet de notes avec des détails sur l’utilisation sur un ordinateur avec des capacités GPU limitées.
Faire fonctionner StableLM sur des systèmes moins onéreux et des GPU moins puissants
La façon la plus simple d’essayer StableLM est d’aller sur la page de démonstration Hugging Face. Comme il vient d’être lancé et qu’il y aura probablement une forte demande, les temps de réponse pourraient être lents, et comme il s’agit d’une version alpha, les résultats ne seront pas aussi bons que ceux de la version finale.
Stability AI inclut une clause de non-responsabilité concernant les résultats, car StableLM est un grand modèle de langage pré-entraîné qui n’a pas besoin d’être affiné. Il n’utilise pas l’apprentissage par renforcement, contrairement à ChatGPT, de sorte que les réponses « peuvent être de qualité variable et peuvent potentiellement inclure des propos et des opinions offensants ».
On ne sait pas si les modèles StableLM améliorés à venir pourront concurrencer ChatGPT. Pour l’instant, il s’agit clairement d’un travail en cours.
Stability AI travaille sur des modèles plus vastes
L’histoire ne s’arrête cependant pas là. Stability AI a indiqué que des modèles plus vastes, comportant 15 milliards, 30 milliards et 65 milliards de paramètres, sont en cours d’élaboration et devraient permettre d’affiner les résultats. Un modèle de 175 milliards de paramètres est prévu pour l’avenir. Étant donné la taille limitée des modèles actuellement disponibles, StableLM prend un bon départ.
La nature open source et la légèreté de la mise en œuvre de la version alpha de StableLM permettent aux développeurs de commencer à travailler sur des applications. Le potentiel de croissance et d’amélioration est suffisant pour qu’il vaille la peine de garder un œil sur ce nouveau chatbot d’IA.