Il semble que l’ère de la réglementation de l’IA soit proche, à commencer par l’Europe. Lors d’un vote au Parlement européen, les députés se sont prononcés massivement en faveur de l’examen de la loi sur l’IA qui superviserait le développement et le déploiement de l’IA. La loi sur l’IA est considérée comme le premier ensemble de lois efficaces régissant l’IA et sa prolifération par un régulateur majeur.
La loi sur l’IA, dans sa forme élargie, vise à mettre un terme aux scénarios d’utilisation abusive de l’IA, tels que l’identification biométrique à l’aide de systèmes télécommandés (sauf pour les besoins de l’application de la loi, et encore, après autorisation légale appropriée), la ségrégation (basée sur des marqueurs tels que la race, le sexe, la religion, l’orientation politique, etc.), le profilage prédictif du comportement, la reconnaissance et le suivi des émotions, et l’analyse des données faciales provenant de source privée ou publiques.
Les récentes modifications apportées à la loi sur l’IA ajoutent également une catégorie spéciale pour l’IA à haut risque, qui augmente les enjeux avec des scénarios tels que l’influence sur les électeurs, l’impact direct sur la santé et la sécurité humaines, et les systèmes de recommandation. D’une manière générale, la loi sur l’IA classe les systèmes d’IA en quatre catégories fondées sur le préjudice. Prenons, par exemple, les risques inacceptables, tels que la création ou le soutien d’un système de notation sociale analogue à celui de la Chine.
Plus bas dans l’échelle, on trouve des applications à haut risque telles que l’analyse des CV des candidats, la gouvernance en matière d’immigration et d’asile, les processus judiciaires et démocratiques, et la santé publique. Les deux catégories restantes sont les risques limités et les risques minimes ou nuls. Le projet de proposition de modification de la loi sur l’IA a été officiellement adopté par la commission du marché intérieur et la commission des libertés civiles en mai.
Le chemin à parcourir pour la réglementation de l’IA
Les principaux objectifs de la loi sur l’IA sont d’atténuer les risques et de définir des limites opérationnelles claires pour les systèmes d’IA. Le règlement précise également des obligations claires pour les utilisateurs et les développeurs, vise à créer une structure de gouvernance au niveau national et au niveau des blocs, et à créer une ligne directrice pour l’évaluation. Les projets de logiciels libres et les scénarios dans lesquels l’innovation en matière d’IA soutient les petites et moyennes entreprises (PME) ont été ajoutés en tant qu’exemptions à la surveillance réglementaire.
Un autre aspect essentiel de la loi sur l’IA est d’empêcher les systèmes d’IA de générer des contenus illégaux. Si la majorité des produits d’IA générative grand public, tels que Dall-E et ChatGPT d’OpenAI, Bing Chat de Microsoft et Bard de Google, sont dotés de garde-fous, il existe de nombreux outils d’IA accessibles au public qui ne sont pas dotés de tels filtres.
Cela permet de créer des médias synthétiquement modifiés, tels que des « deepfakes » explicites. Les systèmes d’IA ont leurs propres problèmes fondamentaux, tels que les « hallucinations », qui les amènent à générer de faux « faits » à partir de rien.