fermer
Intelligence Artificielle

OpenAI vient de former une équipe chargée de contrôler l’IA superintelligente

openai vient former equipe chargee controler ia superintelligente jpg
OpenAI vient de former une équipe chargée de contrôler l'IA superintelligente

OpenAI, largement positionnée à l’avant-garde du développement de l’IA, réfléchit déjà à l’évolution d’une IA superintelligente et à la manière de la maîtriser avant qu’elle ne cause des dommages irréversibles à l’humanité. L’entreprise a annoncé la création de Superalignment, un groupe dirigé par Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, qui développera des stratégies et des méthodes de contrôle pour guider les systèmes d’IA superintelligents.

Ce n’est pas la première fois qu’OpenAI parle d’IA superintelligente, un concept que certains considèrent comme hypothétique et que d’autres considèrent comme une menace imminente pour l’humanité.

En mai 2023, Sam Altman, directeur de OpenAI, a rédigé un article avec Sutskever, dans lequel il décrit la nécessité d’un type spécial de supervision pour l’IA superintelligente et la manière dont elle doit être gérée en toute sécurité avant de pouvoir être intégrée à la société humaine. L’une des principales perspectives est de fixer un seuil pour les systèmes d’IA et, dès qu’ils dépassent un certain niveau d’intelligence artificielle, une autorité internationale doit intervenir pour effectuer un audit, une inspection, un contrôle de conformité et, surtout, mettre en œuvre des restrictions si nécessaire.

Toutefois, le document prévient également « qu’il serait risqué et difficile d’arrêter la création d’une superintelligence ». C’est là que Superalignment entre en scène, en tant que groupe possédant le bon type d’expertise et de prévoyance pour annuler les risques perçus associés à un système d’IA superintelligent. « Actuellement, nous n’avons pas de solution pour diriger ou contrôler une IA potentiellement superintelligente et l’empêcher de se comporter de manière déréglée », explique OpenAI.

Quel est le projet ?

Le plus grand défi que pose une IA superintelligente est qu’elle ne peut pas être contrôlée avec le même type de méthodes de supervision humaine que celles déployées pour les modèles actuels tels que GPT-4, qui alimente des produits comme ChatGPT. Pour les systèmes plus intelligents que les humains, Superalignment propose d’utiliser des systèmes d’IA pour évaluer d’autres systèmes d’IA et vise à automatiser le processus de détection des comportements anormaux. L’équipe emploierait des techniques contradictoires telles que le test d’un pipeline en l’entraînant volontairement avec des modèles mal alignés.

OpenAI consacre 20 % de l’ensemble de ses ressources informatiques à l’objectif de l’équipe Superalignment au cours des quatre prochaines années. Les projets d’OpenAI visant à « aligner les systèmes d’IA superintelligents sur les intentions humaines » arrivent à un moment où des appels à suspendre le développement de modèles existants tels que GPT-4 ont été lancés par des piliers de l’industrie comme Elon Musk, Steve Wozniak et d’éminents scientifiques du monde entier, invoquant les menaces qui pèsent sur l’humanité.

Dans le même temps, les organismes de réglementation s’efforcent de formuler et de mettre en œuvre des garde-fous pour éviter que les systèmes d’IA ne deviennent un désordre incontrôlé. Mais lorsqu’il s’agit d’IA superintelligente, il y a tout un monde d’incertitudes quant aux capacités, au potentiel de risque et à la faisabilité même de l’IA.

Tags : OpenAISuperalignment
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.