fermer
Intelligence Artificielle

OpenAI crée une nouvelle équipe chargée d’évaluer les « risques catastrophiques » de l’IA

file qd2bS7iCrJbdilYdUfyz0zB4 jpg
OpenAI crée une nouvelle équipe chargée d’évaluer les « risques catastrophiques » de l’IA

L’une des principales sociétés de recherche sur l’intelligence artificielle (IA), OpenAI, a lancé une initiative pour faire face aux « risques catastrophiques » de l’IA. L’équipe nouvellement créée, « Preparedness », évalue et sonde les modèles d’IA pour se prémunir contre les menaces des systèmes d’IA avancés.

Selon TechCrunch, Aleksander Madry, directeur du Center for Deployable Machine Learning du MIT, est responsable de l’équipe OpenAI Preparedness. Madry ajoute une pléthore d’expérience au projet, puisqu’il a pris le poste de « chef de la préparation » à OpenAI en mai. Avec Madry à bord, OpenAI est prête à s’attaquer aux problèmes d’IA les plus importants.

L’équipe chargée de la préparation surveille, prévoit et protège contre divers risques liés à l’IA, allant de la capacité des systèmes d’IA à écrire des codes dangereux à leur capacité à influencer et à tromper les gens, comme le démontrent les attaques par hameçonnage.

Prévenir l’extinction de l’humanité

L’équipe d’Open AI Preparedness se distingue par la manière dont elle examine les catégories de risques qui peuvent sembler inhabituelles. Dans un article de blog, l’entreprise s’inquiète des risques « chimiques, biologiques, radiologiques et nucléaires » liés aux modèles d’IA. Ce large éventail met en évidence la gravité des problèmes qu’OpenAI s’est engagée à résoudre.

Sam Altman, le PDG d’OpenAI, a souvent fait part de ses inquiétudes quant à la portée de l’intelligence artificielle. Il a souvent laissé entendre que l’IA provoquerait « l’extinction de l’homme ». La décision d’OpenAI de consacrer des ressources à l’examen de situations qui ressemblent à des intrigues de livres de science-fiction démontre son engagement à minimiser les potentiels risques associés à l’IA.

OpenAI a dévoilé une initiative d’engagement communautaire dans le cadre de sa mission de promotion de la coopération et de la connaissance commune. Avec la création de l’équipe Preparedness, l’organisation recherche des propositions d’études sur les risques liés à l’IA à l’échelle mondiale. Selon GVS, les dix meilleures propositions auront une chance de remporter un prix de 25 000 dollars et peut-être même une place au sein de l’équipe Preparedness, car OpenAI recherche des points de vue variés pour mieux comprendre et gérer les dangers de l’IA.

L’IA devrait dépasser l’intelligence humaine

En outre, OpenAI a chargé l’équipe Preparedness d’élaborer une « politique de développement éclairée par les risques ». Cette politique fournira un cadre complet pour les structures de gouvernance, les techniques d’atténuation des risques, les outils de contrôle et les évaluations des modèles d’IA. Elle vise à compléter les efforts actuels de OpenAI dans le domaine de la sécurité de l’IA, en mettant l’accent sur les étapes précédant et suivant l’exécution du modèle.

Le lancement de l’équipe Preparedness intervient alors que Sam Altman, PDG d’Open AI, et Ilya Sutskever, cofondateur et scientifique en chef de la société d’IA, ont exprimé leur certitude que, dans les 10 prochaines années, l’IA pourrait dépasser l’intelligence humaine. Il est donc essentiel de rechercher des méthodes pour limiter et réglementer l’IA superintelligente afin de garantir un développement éthique et sûr de l’IA.

En attendant, selon un rapport de AIM, la communauté technologique se livre à de nombreuses conjectures avant la prochaine conférence DevDay de OpenAI. On pense que OpenAI pourrait présenter son premier agent complètement autonome, une étape importante qui pourrait conduire à l’intelligence artificielle générale (AGI). Bien que Sam Altman ait souligné par la suite qu’il se moquait de ses indices passés concernant l’accomplissement de l’AGI, le prochain événement technologique promet d’être passionnant et de susciter l’intérêt de la communauté de l’IA.

Tags : OpenAIOpenAI Preparedness
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.