OpenAI, la société à l’origine de ChatGPT, a mis au point un outil permettant de déterminer si le grand modèle linguistique a généré un morceau de texte, mais elle hésite à le diffuser en raison des réactions négatives de ses clients.
L’outil de détection consiste à filigraner le texte, c’est-à-dire à modifier légèrement la façon dont ChatGPT sélectionne ses mots de manière à ce qu’un outil connaissant le filigrane puisse le détecter avec un degré élevé de précision.
Selon le Wall Street Journal, il suffirait d’appuyer sur un bouton pour que l’outil de détection soit disponible, mais les résultats d’une enquête ont montré que près de 30 % des utilisateurs de ChatGPT utiliseraient moins l’outil d’intelligence artificielle (IA) s’il utilisait le filigrane alors que les chatbots concurrents ne le faisaient pas.
Pourquoi OpenAI n’a-t-elle pas publié l’outil de détection du ChatGPT ?
Selon une porte-parole de OpenAI, « la méthode de filigrane que nous développons est techniquement prometteuse, mais comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives ». « Nous pensons que l’approche délibérée que nous avons adoptée est nécessaire étant donné les complexités impliquées et de son impact probable sur l’écosystème élargi au-delà de OpenAI ».
L’entreprise a également mis à jour une page de son site Web pour développer certains de ses raisonnements. L’une de ses principales préoccupations est le fait que le filigrane pourrait « avoir un impact disproportionné sur certains groupes », en particulier les personnes dont l’anglais n’est pas la langue maternelle et qui utilisent l’IA comme outil d’écriture.
Ils s’inquiètent également de la facilité avec laquelle le filigrane pourrait être contourné, déclarant : « Alors qu’il s’est avéré très précis et même efficace contre les altérations localisées, telles que la paraphrase, il est moins robuste contre les altérations globales, telles que l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère — ce qui le rend facile à contourner par de mauvais acteurs ».
Sur la même page, OpenAI mentionne également qu’elle s’est concentrée sur le développement d’outils de détection de contenu audiovisuel, car les images, le son et les vidéos « sont largement considérés comme présentant des niveaux de risque plus élevés à ce stade des capacités de nos modèles ».
Pourquoi une détection efficace de l’IA est-elle si importante ?
Selon le Wall Street Journal, une récente enquête menée par le Center for Democracy and Technology a montré que 59 % des enseignants de collège et de lycée sont certains que certains élèves utilisent l’IA dans leur travail, contre 42 % l’année précédente, et les débats sur l’IA dans l’éducation font rage.
L’un des problèmes réside dans le manque d’outils efficaces de détection de l’IA. Il en existe de nombreux, mais les plus performants sont bloqués derrière des abonnements, et même ces outils ne sont pas à l’abri de faux positifs et d’autres défaillances. Il existe quelques moyens de savoir si une IA a écrit un texte, mais au fur et à mesure que la technologie qui sous-tend ces LLM devient plus sophistiquée, il sera de plus en plus difficile de la détecter.
Au fur et à mesure que les parties internes à OpenAI comprennent que la méthode du filigrane n’affectera pas la qualité des résultats de ChatGPT, les pressions internes pour retenir l’outil s’intensifient. « Notre capacité à défendre notre absence de filigrane textuel est faible maintenant que nous savons qu’il ne dégrade pas les résultats », ont déclaré des employés qui ont participé aux tests de l’outil, selon des documents internes consultés par le Wall Street Journal. « Sans cela, nous risquons de perdre notre crédibilité en tant qu’acteurs responsables », peut-on lire dans un résumé d’une récente réunion sur la question de la détection de l’IA.