Mardi soir, ChatGPT s’est mis à dérailler. Des utilisateurs ont signalé que le chatbot d’IA répondait de manière incorrecte et parlait en charabia, comme l’a rapporté 404Media.
Les membres d’un subreddit ChatGPT ont partagé leurs expériences avec des captures d’écran d’échanges extraordinaires avec la technologie, des réponses qui n’avaient aucun sens ou des réponses à des questions qui étaient complètement à côté de la plaque.
L’une des captures d’écran montrait cette réponse à une question : « C’est le travail du service et de tout médecin aujourd’hui dans le domaine des données ». Elle se poursuivait ainsi : « Le 12ème au degré et la piscine à la terre au sommet de la couture, avec le commerce et la fonctionnalité, peut dépenser le grand et le tout avant qu’il ne soit sous les soins ».
Un autre utilisateur a expliqué qu’il avait demandé à ChatGPT « un synonyme de overgrown » et qu’il avait obtenu la réponse : « Un synonyme de “overgrown” est “overgrown” est “overgrown” est “overgrown”… » D’autres utilisateurs ont affirmé que l’application donnait des réponses totalement incorrectes aux questions de base, comme « Tokyo, Japon » lorsqu’on lui demandait de citer la plus grande ville du monde commençant par un « A ».
OpenAI, les créateurs de ChatGPT, a confirmé avoir résolu le problème dans un message sur sa page de statut. Il s’agit néanmoins d’un nouveau rappel que, bien que nous soyons en plein boom de l’IA, la technologie n’est pas encore à l’abri d’une défaillance ou, tout simplement, d’une erreur.
Les modèles d’IA comme ChatGPT ont encore un long chemin à parcourir
Il s’agit là d’un nouvel exemple de technologie d’IA qui prouve qu’elle n’est pas encore capable de gagner la confiance totale de ses utilisateurs, malgré les craintes que l’intelligence artificielle ait le potentiel de remplacer les humains dans une variété de tâches quotidiennes, à la fois à la maison et sur le lieu de travail.
Il y a déjà eu plusieurs cas où des avocats se sont retrouvés en difficulté pour avoir cité des cas fictifs générés par l’IA. Le mois dernier, Reuters a rapporté qu’un avocat new-yorkais faisait l’objet de mesures disciplinaires après avoir utilisé ChatGPT à des fins de recherche dans le cadre d’un procès pour faute professionnelle médicale et n’avoir pas confirmé que le cas cité était valide.