À l’approche d’élections cruciales en 2024 dans les principales démocraties, OpenAI a exposé sa stratégie pour protéger ses puissants modèles de langage et d’images contre la militarisation.
Le laboratoire d’intelligence artificielle (IA) à l’origine des très populaires produits d’IA générative ChatGPT et DALL-E compte plus de 180 millions d’utilisateurs et continue de croître rapidement. Les outils disponibles sur le GPT Store de OpenAI comprennent des logiciels susceptibles d’être utilisés à des fins malveillantes pour influencer les campagnes électorales. Les médias synthétiques tels que les images, les vidéos et les sons générés par l’IA peuvent éroder la confiance du public et devenir viraux sur les plateformes sociales.
Les grands pouvoirs s’accompagnent donc de grandes responsabilités et, ce lundi 15 janvier, OpenAI a expliqué dans un article de blog comment elle comptait s’attaquer à la multitude d’élections qui se dérouleront cette année dans le monde entier.
Prévenir les abus des systèmes d’OpenAI
L’un des principaux objectifs est de renforcer préventivement les systèmes d’IA contre l’exploitation par des acteurs malveillants grâce à des tests approfondis, en recueillant les commentaires des utilisateurs au cours du développement et en intégrant des garde-fous dans les fondements des modèles. En ce qui concerne DALL-E, le générateur d’images, des politiques rigides refusent toute demande de génération d’images impliquant des personnes réelles, y compris des candidats politiques.
« Nous nous efforçons d’anticiper et de prévenir les abus, tels que les “deepfakes” trompeurs, les opérations d’influence à grande échelle ou les chatbots usurpant l’identité de candidats », écrit OpenAI.
Des règles d’utilisation strictes interdisent également les applications de ChatGPT pour la propagande, les tactiques de suppression des électeurs ou les bots d’usurpation d’identité politique.
Les humains au cœur de l’action
Voici quelque chose que l’on ne lit pas tous les jours : les humains vont remplacer l’IA. Plus précisément, ils seront utilisés par OpenAI comme vérificateurs de faits grâce à de nouvelles fonctions de transparence qui permettent de remonter aux origines d’une création de l’IA. Le filigrane numérique et l’empreinte digitale permettront de vérifier les images de DALL-E, tandis que les liens et citations d’actualité apparaîtront plus visiblement dans les réponses de recherche de ChatGPT. Cette initiative s’inscrit dans le prolongement d’un précédent partenariat avec Axel Springer, qui a permis à ChatGPT de résumer certains contenus d’actualité provenant des médias de l’éditeur.
Le fleuron mondial de l’IA espère que les électeurs bénéficieront directement de la collaboration d’OpenAI avec des agences de vote non partisanes telles que l’Association nationale des secrétaires d’État (NASS) des États-Unis. En outre, aux États-Unis, les chatbots qui posent des questions sur les aspects pratiques du processus de vote feront apparaître les informations officielles relatives à l’inscription et au scrutin fournies par CanIVote.org, afin d’éliminer les informations erronées.
Peu de gens s’opposeraient à l’une ou l’autre de ces mesures. Cependant, la réalité est que tant que ces outils existent, il y aura toujours des tentatives de la part de mauvais acteurs pour les utiliser à des fins électorales.
OpenAI se positionne au moins pour répondre de manière dynamique aux défis auxquels elle est confrontée pendant les cycles électoraux. La collaboration entre les grandes entreprises technologiques et les gouvernements pourrait être l’une des seules voies durables pour s’attaquer à l’IA falsifiée et à la propagande.