L’une des principales promesses d’Internet est de fournir des réponses à presque toutes les questions, qu’elles concernent des sujets complexes ou des personnes spécifiques. Cependant, ChatGPT, l’un des chatbots les plus populaires au monde, semble se heurter à certaines limites.
Il existe des noms que l’intelligence artificielle refuse catégoriquement de mentionner ou de discuter, interrompant immédiatement la conversation. Cette situation intrigue les utilisateurs, d’autant plus qu’elle révèle des tensions entre la technologie, la vie privée et la réglementation.
Une liste noire de noms, dont l’énigmatique « David Mayer »
Sur des forums comme Reddit, une véritable enquête s’est formée autour des noms que ChatGPT évite systématiquement. Parmi eux, « David Mayer » a attiré une attention particulière. Pendant une longue période, toute tentative d’évoquer ce nom conduisait le chatbot à esquiver la question ou à interrompre la conversation. Cette situation a poussé les internautes à spéculer : Mayer serait-il une personnalité controversée ? Ou une simple victime d’un dysfonctionnement algorithmique ?
ChatGPT refuses to say the name “David Mayer,” and no one knows why.
If you try to get it to write the name, the chat immediately ends.
People have attempted all sorts of things—ciphers, riddles, tricks—and nothing works. pic.twitter.com/om6lJdMSTp
—Justine Moore (@venturetwins) November 30, 2024
Cependant, selon un rapport de CNET, la situation a évolué. Désormais, ChatGPT est capable de répondre aux questions sur David Mayer et de clarifier de qui il s’agit, suggérant que son inclusion dans cette « liste noire » n’était pas permanente.
Cette curiosité suscitée par les noms évités par l’IA a paradoxalement rendu ces derniers encore plus célèbres, puisque les utilisateurs peuvent facilement les chercher ailleurs sur Internet, mais pas via ChatGPT.
Le droit européen d’être oublié par les IA
L’une des potentielles raisons de l’existence de cette liste noire pourrait être liée à une législation européenne bien connue : le droit à l’oubli. Cette loi permet à toute personne de demander à des moteurs de recherche ou des plateformes numériques de ne pas afficher d’informations à leur sujet. Ce droit, conçu pour protéger la vie privée à l’ère numérique, s’étendrait également aux chatbots comme ChatGPT.
Dans une vidéo explicative, le journaliste technologique Bryan Lunduke évoque cette hypothèse, suggérant que certaines personnes auraient adressé des demandes à OpenAI pour empêcher la diffusion d’informations personnelles via ChatGPT. Bien qu’il ne soit pas confirmé que David Mayer ait utilisé ce droit, il illustre la manière dont la réglementation européenne peut influencer les réponses d’une IA.
Des sujets « interdits » pour les chatbots, pas que ChatGPT
Ce n’est pas seulement une liste de noms qui limite les capacités de ChatGPT. Depuis ses débuts, les IA ont été soigneusement encadrées pour éviter certains sujets sensibles. Des thèmes comme la religion, la race ou d’autres questions éthiques ont été exclus, soit pour éviter les biais, soit pour respecter les règles de modération.
En plus de ces sujets délicats, des limitations liées à la vie privée sont également en place. Certains individus ou contenus protégés par des lois ou des accords sont volontairement omis des réponses de l’IA.
Une IA en constante évolution, mais sous surveillance
L’intelligence artificielle a fait des progrès significatifs ces dernières années. ChatGPT, par exemple, est maintenant capable d’accéder à des informations en ligne grâce à des licences avec des éditeurs de contenu et à l’intégration de sources fiables. Cependant, son utilisation reste encadrée par des législations locales et des politiques de confidentialité strictes, qui limitent ce qu’il peut partager.
Cette évolution soulève des questions importantes sur l’équilibre entre la transparence des technologies et la protection des droits individuels. Tandis que des débats se poursuivent sur la manière de gérer ces restrictions, il est clair que l’IA, bien qu’incroyablement puissante, doit encore naviguer entre innovation et régulation.
Pour les utilisateurs, ces restrictions peuvent être frustrantes, mais elles reflètent aussi les complexités éthiques et légales d’un monde de plus en plus façonné par l’intelligence artificielle.