Sam Altman, le PDG d’OpenAI, a laissé entendre que la société à l’origine de ChatGPT pourrait se retirer d’Europe si elle ne peut pas se conformer aux réglementations de l’Union européenne en matière d’IA, rapporte le Financial Times.
« Il y a tellement de choses qu’ils pourraient faire, comme changer la définition des systèmes d’IA à usage général », a déclaré Altman. « Il y a beaucoup de choses qui pourraient être faites ». La question clé, selon Altman, est une règle de la loi européenne sur l’IA qui exigerait des entreprises qu’elles divulguent les documents protégés par le droit d’auteur utilisés dans le développement d’outils d’IA générative.
La semaine dernière, Apple a rejoint d’autres entreprises en interdisant à ses employés d’utiliser ChatGPT et d’autres outils d’IA tiers dans le cadre de leur travail, craignant que cela n’entraîne des fuites de données confidentielles de l’entreprise qui seraient alors stockées sur des serveurs tiers.
L’administration du président des États-Unis Joe Biden a réitéré son engagement à favoriser le développement responsable de l’intelligence artificielle (IA) jeudi, alors que la vice-présidente Kamala Harris a rencontré des PDG de grandes entreprises qui construisent des produits et des outils d’IA et qui font de la recherche dans ce domaine. Le récent essor des progrès de l’IA, dû en grande partie au succès du programme ChatGPT de l’OpenAI et aux développements ultérieurs, a propulsé les discussions sur les pratiques éthiques et consciencieuses en matière d’IA au premier plan du débat public, ce qui a eu pour effet d’accroître le nombre d’utilisateurs de l’intelligence artificielle.
« Le projet actuel de loi sur l’IA de l’UE serait trop réglementé, mais nous avons entendu dire qu’il allait être réduit », a déclaré Altman.
Des restrictions de droits d’auteur
Selon le Future of Life Institute, qui a publié un rapport analysant la loi européenne sur l’IA, l’IA à usage général est définie comme des systèmes d’IA ayant un large éventail d’utilisations possibles, qu’elles soient voulues ou non par les développeurs.
En décembre, les États membres de l’UE ont approuvé une version de la loi sur la réglementation de l’intelligence artificielle. Le mois dernier, un groupe de décideurs politiques du Parlement européen a demandé au président américain Joe Biden et à la présidente de la Commission européenne Ursula von der Leyen d’organiser un sommet mondial afin de créer un ensemble de principes directeurs pour le développement, le contrôle et le déploiement de l’intelligence artificielle.
Depuis son lancement public en novembre, l’essor rapide de ChatGPT d’OpenAI a choqué les dirigeants du monde entier. Plusieurs pays ont ouvert des enquêtes sur les pratiques d’OpenAI ou ont interdit ChatGPT. Après l’interdiction de ChatGPT par l’Italie pour des raisons de protection de la vie privée, OpenAI a procédé à plusieurs mises à jour, notamment en permettant aux utilisateurs de supprimer leur historique.
Lors d’une table ronde à l’University College London mercredi, Altman a déclaré qu’OpenAI essaierait de se conformer aux règles avant de décider de mettre fin à ses activités en Europe. « Soit nous serons en mesure de répondre à ces exigences, soit nous ne le pourrons pas », a déclaré Altman. « Si nous pouvons nous conformer, nous le ferons, et si nous ne le pouvons pas, nous cesserons nos activités ».
De vraies problématiques
Outre la menace commerciale éventuelle, obliger OpenAI à identifier son utilisation de données protégées par le droit d’auteur exposerait l’entreprise à de potentielles poursuites. Les systèmes d’IA générative tels que ChatGPT et DALL-E sont entraînés à l’aide de grandes quantités de données extraites du Web, dont la plupart sont protégées par des droits d’auteur. Lorsque les entreprises divulguent ces sources de données, elles s’exposent à des poursuites judiciaires. Stability AI, par exemple, un concurrent d’OpenAI, est actuellement poursuivi par le fabricant d’images Getty Images pour avoir utilisé ses données protégées par le droit d’auteur afin d’entraîner son générateur d’images IA.
Les récents commentaires de Altman contribuent à nuancer le désir de réglementation de l’entreprise. Altman a déclaré aux responsables politiques américains que la réglementation devrait surtout s’appliquer aux futurs systèmes d’IA, plus puissants. En revanche, la loi européenne sur l’IA est beaucoup plus axée sur les capacités actuelles des logiciels d’IA.