Google a discrètement modifié ses principes éthiques sur l’intelligence artificielle (IA), supprimant son engagement de ne jamais utiliser l’IA pour le développement d’armes ou la surveillance. Ce changement marque un tournant majeur dans la position de Google sur l’éthique de l’IA et son rôle potentiel dans la sécurité nationale et la géopolitique mondiale.
L’annonce a été faite dans un article de blog rédigé par James Manyika, vice-président senior chez Google, et Demis Hassabis, PDG de Google DeepMind. Selon eux, cette évolution est justifiée par la nécessité pour les démocraties et les entreprises d’utiliser l’IA pour soutenir la sécurité nationale, tout en renforçant la sécurité et en limitant les risques.
Pourquoi Google modifie-t-il ses principes en matière d’IA ?
Depuis sa dernière mise à jour des principes de l’IA en 2018, Google reconnaît que l’IA est passée d’une technologie de niche à un outil aussi omniprésent que les smartphones et Internet. L’entreprise estime désormais que l’IA est un facteur clé de la compétition mondiale et souhaite s’assurer que les démocraties dominent son développement.
« Une compétition mondiale pour le leadership en matière d’IA se déroule dans un paysage géopolitique de plus en plus complexe. Nous pensons que les démocraties doivent mener ce développement, guidées par des valeurs fondamentales comme la liberté, l’égalité et le respect des droits de l’homme », déclare Google.
Cette déclaration laisse entendre que Google est désormais plus ouvert à travailler avec des gouvernements et des organisations militaires, tant que ces projets restent alignés avec des valeurs démocratiques.
Quels changements pour la stratégie d’IA de Google ?
Google n’exclut plus le développement d’armes basées sur l’IA
Auparavant, Google interdisait explicitement l’utilisation de l’IA pour la création d’armes. Ce n’est plus le cas aujourd’hui. Même si cela ne signifie pas que Google va immédiatement concevoir des armes autonomes, la porte est désormais ouverte à ce type d’usage.
Des applications potentielles pour la surveillance et la sécurité nationale
Google interdisait aussi auparavant l’utilisation de l’IA pour la surveillance gouvernementale. Cette interdiction a été supprimée, ce qui pourrait suggérer que Google pourrait développer des outils d’IA pour les services de renseignement et les forces de l’ordre.
Des investissements massifs dans l’IA
Ce changement de politique survient juste après l’annonce des résultats financiers du quatrième trimestre d’Alphabet, où Google a surpris Wall Street en déclarant qu’il prévoit d’investir 75 milliards de dollars dans l’IA en 2025, bien plus que les prévisions des analystes.
Cette annonce a fait chuter le cours de l’action Alphabet, certains investisseurs s’inquiétant des coûts énormes liés à ces investissements.
Des réactions partagées et des problèmes éthiques à venir
Google s’est longtemps positionné comme un leader éthique de l’IA, mais ce revirement risque de raviver des controverses. L’entreprise a déjà fait face à des protestations de ses employés par le passé, notamment avec Project Maven, un contrat controversé avec le Pentagone utilisant l’IA pour analyser les vidéos de drones militaires.
Avec cette révision de ses principes, Google pourrait renouer des liens avec des agences de défense, ce qui pourrait heurter une partie de ses employés et militants pour la vie privée qui avaient fait pression pour que l’entreprise abandonne ces activités.
Google continue d’élargir ses offres d’IA avec Gemini
En parallèle, Google poursuit son expansion dans l’IA grand public. Gemini, son assistant IA avancé, est désormais intégré directement dans Google Recherche pour fournir des résumés assistés par IA. Un raccourci intégré à l’application de recherche Google permet d’accéder rapidement à l’application Gemini dédiée.
Un tournant majeur dans l’éthique de l’IA chez Google
En supprimant son engagement à ne pas développer d’armes avec l’IA et à ne pas participer à des systèmes de surveillance, Google envoie un message fort : l’entreprise adopte une approche plus pragmatique pour rester compétitive face aux exigences des gouvernements et des nouvelles réalités géopolitiques.
Ce revirement pourrait ouvrir de nouvelles opportunités commerciales, mais il risque aussi de susciter des controverses et des critiques sur l’usage militaire et sécuritaire de l’IA. Alors que Google s’engage à accroître la transparence et la sécurité de l’IA, il reste à voir si ce changement sera perçu comme une avancée stratégique ou une menace éthique.