fermer
Intelligence Artificielle

OpenAI accusé de minimiser les risques de l’IA : une polémique grandissante

OpenAI accusé de minimiser les risques de l'IA : une polémique grandissante
OpenAI accusé de minimiser les risques de l'IA : une polémique grandissante

OpenAI fait face à de nouvelles critiques sur sa gestion des risques liés à l’intelligence artificielle. Miles Brundage, ancien chercheur en politique d’OpenAI, a vivement réagi au dernier document de l’entreprise sur la sécurité et l’alignement des modèles d’IA. Selon lui, OpenAI minimise les préoccupations en matière de sécurité et tente de réécrire son propre passé pour justifier ses choix actuels.

Le document publié cette semaine par OpenAI décrit sa stratégie de développement de l’intelligence artificielle générale (AGI) comme une succession de petites avancées plutôt qu’un grand bond en avant. L’entreprise affirme que cette approche progressive permettra d’identifier et de corriger les problèmes de sécurité au fur et à mesure, notamment les risques de mésusage et de détournement de ses modèles.

Cette déclaration fait écho aux nombreuses critiques que subissent les modèles d’IA comme ChatGPT. Parmi les préoccupations majeures figurent :

  • La diffusion d’informations erronées, notamment sur des sujets sensibles comme la santé et la sécurité (comme l’infâme recommandation de Google Gemini de « manger des cailloux »).
  • L’usage de l’IA pour la désinformation politique, la manipulation et les escroqueries en ligne.
  • Le manque de transparence d’OpenAI sur l’entraînement de ses modèles, qui pourraient contenir des données personnelles sensibles.

Une réécriture de l’histoire de GPT-2 ?

Dans son document, OpenAI laisse entendre que le développement du modèle GPT-2 a été marqué par une « discontinuité », et qu’il n’a pas été immédiatement publié en raison de préoccupations liées à un usage malveillant. Aujourd’hui, l’entreprise affirme privilégier une stratégie de déploiement progressif pour mieux contrôler les risques.

Mais pour Miles Brundage, cette version des faits est trompeuse. Il réfute l’idée que GPT-2 ait été traité différemment, affirmant qu’OpenAI suit cette approche depuis longtemps.

« Le déploiement de GPT-2, auquel j’ai participé, était parfaitement conforme à la philosophie actuelle d’OpenAI. Le modèle a été publié progressivement, avec un partage des enseignements à chaque étape. De nombreux experts en sécurité nous ont remerciés pour cette prudence », précise Miles Brundage, sur X.

En d’autres termes, OpenAI ne ferait que justifier son manque de transparence actuel en altérant son propre passé.

Un raisonnement dangereux sur les risques

Brundage critique également la mentalité d’OpenAI face aux risques. Selon lui, l’entreprise impose un fardeau de la preuve beaucoup trop lourd sur ceux qui alertent sur les dangers potentiels de l’IA.

« Il semble qu’OpenAI considère toute préoccupation comme alarmiste et exige des preuves écrasantes de dangers imminents avant d’agir. Sinon, ils continuent à publier leurs modèles. C’est une mentalité très dangereuse pour des systèmes d’IA avancés ».

Ce type de culture du risque est préoccupant alors qu’OpenAI est déjà accusée de privilégier le développement rapide de nouveaux produits au détriment de la sécurité et de la réglementation.

Une entreprise sous pression croissante

Cette polémique survient à un moment où OpenAI fait face à une surveillance accrue de la part des régulateurs et du grand public. Plusieurs critiques l’accusent de prioriser des innovations tape-à-l’œil au détriment de la prudence.

Si OpenAI maintient que sa stratégie de déploiement progressif est la meilleure manière de gérer les risques, des experts comme Brundage rappellent que cela ne doit pas servir d’excuse pour ignorer les dangers évidents.

L’avenir dira si OpenAI ajuste sa trajectoire ou si elle continue à avancer malgré les avertissements de la communauté scientifique et éthique.

Tags : OpenAI
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.