OpenAI annonce la transformation de son « Comité de sûreté et de sécurité » en un « Comité de surveillance du conseil d’administration » indépendant, dont Sam Altman, le PDG d’OpenAI, est exclu. Cette nouvelle entité aura le pouvoir de retarder le lancement de modèles d’IA en cas de préoccupations liées à la sécurité, selon un récent article de blog de l’entreprise.
Cette décision fait suite à une évaluation de 90 jours des « processus et mesures de protection liés à la sécurité » d’OpenAI, menée par le comité lui-même. Présidé par Zico Kolter, le comité comprend également Adam D’Angelo, Paul Nakasone et Nicole Seligman. Il sera désormais informé par la direction d’OpenAI des évaluations de sécurité pour les principaux lancements de modèles et, conjointement avec le conseil d’administration complet, exercera une surveillance sur ces lancements, y compris le pouvoir de retarder une sortie jusqu’à ce que les problèmes de sécurité soient résolus.
Le conseil d’administration complet d’OpenAI recevra également des « briefings périodiques » sur les « questions de sûreté et de sécurité ».
Une indépendance à clarifier
Bien que présenté comme indépendant, le comité de sécurité d’OpenAI est composé de membres qui siègent également au conseil d’administration de l’entreprise. La structure exacte de cette indépendance et son fonctionnement restent donc à éclaircir. OpenAI a été sollicité pour apporter des précisions à ce sujet.
En établissant un comité de sécurité indépendant, OpenAI semble adopter une approche analogue à celle de Meta avec son Conseil de surveillance, qui examine certaines décisions de Meta en matière de politique de contenu et peut prendre des décisions que Meta doit suivre. Aucun des membres du Conseil de surveillance ne siège au conseil d’administration de Meta.
L’examen mené par le Comité de sûreté et de sécurité d’OpenAI a également permis d’identifier des « opportunités supplémentaires de collaboration et de partage d’informations au sein de l’industrie pour renforcer la sécurité du secteur de l’IA ». L’entreprise prévoit également de chercher « davantage de moyens de partager et d’expliquer son travail en matière de sécurité » et de « multiplier les opportunités de tests indépendants de ses systèmes ».
Une étape importante pour une IA responsable
Cette initiative d’OpenAI marque une étape importante dans la quête d’une intelligence artificielle plus sûre et responsable. En donnant à un comité indépendant le pouvoir de retarder les lancements de modèles en cas de problèmes de sécurité, OpenAI démontre sa volonté de placer la sécurité au cœur de ses priorités.
Il reste à voir comment cette nouvelle structure fonctionnera en pratique et quel impact elle aura sur le développement et le déploiement futurs des modèles d’IA d’OpenAI. Mais, cette démarche témoigne d’une prise de conscience croissante de l’importance de la sécurité dans le domaine de l’IA, et pourrait inspirer d’autres acteurs du secteur à adopter des mesures similaires.
Étant donné le passé de Sam Altman, il sera rassurant pour les investisseurs et les employés qu’il — et le reste de la direction d’OpenAI — soient enfin soumis à une surveillance appropriée et indépendante.