fermer
Intelligence Artificielle

OpenAI renforce l’accès à ses modèles : La vérification d’organisation devient obligatoire !

OpenAI renforce l'accès à ses modèles : La vérification d'organisation devient obligatoire !
OpenAI renforce l'accès à ses modèles : La vérification d'organisation devient obligatoire !

OpenAI prévoit de renforcer les contrôles d’accès à ses modèles d’IA les plus avancés à travers un nouveau processus appelé Verified Organization (Organisation Vérifiée). D’après une page d’assistance récemment mise en ligne, cette vérification pourrait devenir obligatoire pour les entreprises souhaitant accéder à certaines capacités futures de la plateforme.

Qu’est-ce que le processus « Verified Organization » ?

Ce système d’authentification impose la fourniture d’une pièce d’identité émise par un gouvernement d’un pays pris en charge par l’API d’OpenAI. Une même pièce d’identité ne pourra être utilisée que pour une organisation tous les 90 jours, et toutes les entités ne seront pas nécessairement éligibles à la vérification.

OpenAI justifie cette mesure par son engagement à garantir un usage sécurisé et responsable de l’intelligence artificielle. L’entreprise précise que ce système vise à limiter les usages malveillants ou non conformes de ses API par une minorité de développeurs qui contournent volontairement les règles d’utilisation.

Une stratégie de sécurisation face à des usages risqués

Ce renforcement de la sécurité intervient dans un contexte où les modèles d’OpenAI deviennent de plus en plus puissants et donc sensibles. La société a déjà publié plusieurs rapports concernant des tentatives d’utilisation malveillante de ses technologies, notamment par des entités liées à la Corée du Nord.

De plus, cette initiative semble aussi viser à protéger la propriété intellectuelle. Un rapport de Bloomberg publié plus tôt cette année évoquait une enquête interne d’OpenAI sur une possible exfiltration massive de données via son API en 2024 par un groupe affilié à DeepSeek, un laboratoire chinois spécialisé en IA — possiblement pour entraîner ses propres modèles, en violation des conditions d’utilisation.

En réponse, OpenAI avait déjà restreint l’accès à ses services en Chine à l’été 2024.

En résumé, cette nouvelle vérification vise à renforcer la confiance et la traçabilité dans l’usage des modèles d’IA les plus puissants d’OpenAI. Elle pourrait devenir un prérequis obligatoire pour certaines fonctionnalités à venir, particulièrement dans les environnements professionnels et de recherche sensibles. Une évolution logique à mesure que l’intelligence artificielle devient un outil stratégique à l’échelle mondiale.

Tags : OpenAI
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.