Des représentants de 7 des plus grands noms du monde dans le domaine de l’IA — OpenAI, développeur de ChatGPT, Microsoft, Google, Amazon, Meta, Anthropic et Inflection — ont accepté de mettre au point un système d’empreintes digitales qui réduirait les risques de fraude et de tromperie liés à l’utilisation d’œuvres générées par l’IA.
L’idée de base est de « développer des mécanismes techniques robustes pour s’assurer que les utilisateurs savent quand le contenu est généré par l’IA, comme un système de filigrane ». Il s’agit d’une sorte d’empreinte génétique, mais pour des travaux générés par l’IA tels que des paragraphes de texte, des lignes de code, une illustration visuelle ou un clip audio.
Le filigrane ne serait peut-être pas visible, mais il serait intégré à un niveau technique tel que la vérification serait probablement infaillible. Il existe déjà des outils de vérification de l’IA, mais ils sont sujets aux erreurs, ce qui peut avoir des conséquences dévastatrices sur le plan professionnel et académique. Alors que les enseignants et les professeurs se méfient des étudiants qui utilisent les outils d’IA pour tricher, les étudiants craignent que les outils de vérification de l’IA ne signalent à tort leur travail comme étant du plagiat.
Même OpenAI prévient que son outil de classification permettant de distinguer un texte écrit par un humain d’un texte écrit par une machine n’est « pas totalement fiable ».
Pour l’instant, les détails sur ce système de filigrane d’IA sont minces, mais il s’agit sans aucun doute d’un pas dans la bonne direction, surtout à une époque où les outils d’IA posent des risques pour l’emploi et ont ouvert un monde d’escroqueries.
Des avancées positives et collectives
L’accent est mis sur la sûreté, la transparence, la sécurité et la confiance. Les entreprises invitées à la réunion d’information de la Maison-Blanche ont accepté que leurs outils d’IA soient testés en interne et en externe par des experts avant d’entrer dans le domaine public. Les laboratoires d’intelligence artificielle ont également promis de ne pas rester inactifs face aux menaces posées par l’intelligence artificielle, s’engageant à partager leurs connaissances avec les experts de l’industrie, les experts universitaires et la société civile.
En ce qui concerne la sécurité, les entreprises se sont engagées à mettre en place des garde-fous internes et à ne diffuser leurs modèles d’intelligence artificielle qu’après les avoir soumis à des tests rigoureux. Afin de minimiser les risques en matière de cybersécurité, il a également été convenu que ces grands noms de l’IA autoriseraient des experts indépendants à vérifier leurs produits et qu’il y aurait également une voie ouverte pour signaler les vulnérabilités.
Un autre élément notable de l’engagement est que les laboratoires d’IA signaleront les « capacités et les limites de leurs systèmes d’IA, ainsi que les domaines d’utilisation appropriée et inappropriée ». Ce point est d’une importance cruciale, car les systèmes d’IA de la génération actuelle présentent des problèmes bien connus de précision et de partialité sous de multiples formes.
Enfin, les fabricants d’outils d’IA ont également accepté de consacrer des efforts et des ressources au développement de l’IA d’une manière qui contribue au bien-être de la société au lieu de lui nuire. Des efforts seront déployés pour utiliser l’IA afin de résoudre des problèmes tels que la crise climatique et la recherche sur le cancer.
Les experts en IA et les acteurs du secteur ont déjà signé des engagements en faveur d’un développement responsable de l’IA, et il s’agit là d’une nouvelle avancée éthique pour l’IA.