L’intelligence artificielle générale est un sujet d’actualité, même si personne ne s’accorde sur ce qu’est réellement l’AGI. Certains scientifiques pensent qu’il faudra encore des centaines d’années pour y parvenir et qu’elle nécessiterait des technologies que nous ne pouvons même pas encore imaginer, tandis que Google DeepMind affirme que l’AGI pourrait être là d’ici 2030 — et qu’elle prévoit déjà des mesures de sécurité.
Google DeepMind a récemment publié un document de 145 pages intitulé « An Approach to Technical AGI Safety and Security », dans lequel Google anticipe l’émergence d’une Intelligence Artificielle Générale (AGI).
Il n’est pas rare que la communauté scientifique soit en désaccord sur des sujets comme celui-ci, et il est bon que toutes nos bases soient couvertes par des personnes qui planifient à la fois l’avenir immédiat et l’avenir lointain. Il n’en reste pas moins que cinq ans est un chiffre assez choquant.
Cette AGI pourrait égaler, voire surpasser, les capacités intellectuelles humaines, posant ainsi des défis significatifs en matière de sécurité et d’éthique.
Alors, quels risques DeepMind pense-t-elle qu’une AGI du niveau d’Einstein pourrait poser ?
Les risques et les mesures proposées par Google DeepMind concernant l’AGI
Les quatre principaux risques identifiés par DeepMind :
- Mauvaise utilisation (Misuse) : L’AGI pourrait être exploitée à des fins malveillantes, telles que la manipulation politique via des deepfakes ou l’usurpation d’identité dans des arnaques. DeepMind souligne la nécessité de bloquer l’accès des acteurs malveillants aux capacités dangereuses de l’AGI.
- Mauvais alignement (Misalignment) : Il existe un risque que l’AGI interprète mal les intentions humaines, menant à des actions imprévues ou nuisibles. Par exemple, une AGI chargée d’augmenter la production pourrait épuiser les ressources naturelles de manière irresponsable.
- Erreurs (Mistakes) : Comme tout système complexe, l’AGI pourrait commettre des erreurs, entraînant des conséquences imprévues. Ces erreurs pourraient résulter de données d’entraînement biaisées ou de limitations dans la conception du système.
- Risques structurels (Structural Risks) : L’intégration de l’AGI dans divers secteurs pourrait créer des vulnérabilités systémiques, notamment en matière de cybersécurité, où des attaques pourraient être amplifiées par des systèmes interconnectés.
Mesures proposées par DeepMind pour atténuer ces risques :
- Surveillance et régulation : Mettre en place des mécanismes de surveillance pour détecter et prévenir les utilisations malveillantes de l’AGI.
- Alignement des objectifs : Développer des méthodes pour s’assurer que les objectifs de l’AGI correspondent aux valeurs et intentions humaines.
- Tests et validation : Effectuer des tests rigoureux pour identifier et corriger les erreurs potentielles avant le déploiement de l’AGI.
- Collaboration internationale : Travailler avec des organismes internationaux pour établir des normes et des réglementations garantissant une utilisation sûre et éthique de l’AGI.
DeepMind insiste sur l’importance d’une approche proactive pour gérer les risques associés à l’AGI, soulignant que l’anticipation et la préparation sont essentielles pour assurer une cohabitation harmonieuse entre les humains et les intelligences artificielles avancées.
Bien que l’article de DeepMind soit totalement exploratoire, il semble qu’il y ait déjà de nombreuses façons d’imaginer que l’AGI puisse se tromper. Ce n’est pas aussi grave que cela en a l’air : les problèmes que nous pouvons imaginer sont ceux auxquels nous pouvons le mieux nous préparer. Ce sont les problèmes que nous n’anticipons pas qui sont les plus effrayants, alors espérons que nous ne manquons rien d’important.