OpenAI prévoit de renforcer les contrôles d’accès à ses modèles d’IA les plus avancés à travers un nouveau processus appelé Verified Organization (Organisation Vérifiée). D’après une page d’assistance récemment mise en ligne, cette vérification pourrait devenir obligatoire pour les entreprises souhaitant accéder à certaines capacités futures de la plateforme.
Qu’est-ce que le processus « Verified Organization » ?
Ce système d’authentification impose la fourniture d’une pièce d’identité émise par un gouvernement d’un pays pris en charge par l’API d’OpenAI. Une même pièce d’identité ne pourra être utilisée que pour une organisation tous les 90 jours, et toutes les entités ne seront pas nécessairement éligibles à la vérification.
OpenAI justifie cette mesure par son engagement à garantir un usage sécurisé et responsable de l’intelligence artificielle. L’entreprise précise que ce système vise à limiter les usages malveillants ou non conformes de ses API par une minorité de développeurs qui contournent volontairement les règles d’utilisation.
OpenAI released a new Verified Organization status as a new way for developers to unlock access to the most advanced models and capabilities on the platform, and to be ready for the “next exciting model release”
—Verification takes a few minutes and requires a valid… pic.twitter.com/zWZs1Oj8vE
—Tibor Blaho (@btibor91) April 12, 2025
Une stratégie de sécurisation face à des usages risqués
Ce renforcement de la sécurité intervient dans un contexte où les modèles d’OpenAI deviennent de plus en plus puissants et donc sensibles. La société a déjà publié plusieurs rapports concernant des tentatives d’utilisation malveillante de ses technologies, notamment par des entités liées à la Corée du Nord.
De plus, cette initiative semble aussi viser à protéger la propriété intellectuelle. Un rapport de Bloomberg publié plus tôt cette année évoquait une enquête interne d’OpenAI sur une possible exfiltration massive de données via son API en 2024 par un groupe affilié à DeepSeek, un laboratoire chinois spécialisé en IA — possiblement pour entraîner ses propres modèles, en violation des conditions d’utilisation.
En réponse, OpenAI avait déjà restreint l’accès à ses services en Chine à l’été 2024.
En résumé, cette nouvelle vérification vise à renforcer la confiance et la traçabilité dans l’usage des modèles d’IA les plus puissants d’OpenAI. Elle pourrait devenir un prérequis obligatoire pour certaines fonctionnalités à venir, particulièrement dans les environnements professionnels et de recherche sensibles. Une évolution logique à mesure que l’intelligence artificielle devient un outil stratégique à l’échelle mondiale.