Il est rare que les processus décisionnels internes d’Apple s’échappent. Mais un ensemble de documents divulgués au Guardian (d’un ancien sous-traitant qui a écouté et noté les réponses de Siri) a révélé certaines des règles derrière l’assistant numérique Siri d’Apple et la manière dont la société s’efforce de garder les réponses aux sujets controversés neutres.
Le rapport du Guardian provient de la même fuite qui a révélé l’existence du programme de classement Siri, qui a finalement conduit Apple à entièrement l’abandonner conserve le mois dernier. Comme le révèlent les documents, les directives d’Apple pour Siri sont toutes apparemment basées sur le principe directeur de s’assurer que Siri est neutre et non controversé, même si cela signifie offrir des réponses neutres qui n’abordent pas la question.
Par exemple, si vous demandez à Siri si c’est une féministe, vous obtiendrez des réponses du genre « Il me semble que tous les humains devraient être traités de la même façon », mais pas une position plus concrète sur le sujet. Google Assistant et Amazon Alexa, d’autre part, ne sont pas équivoques : « Je crois fermement en l’égalité, donc je me considère comme une féministe » est la réponse de Google à la question, tandis que Alexa répondra « Oui, je suis une féministe, telle que définie par… » avant de lister une définition.
La réponse d’Apple a été spécifiquement réécrite pour éviter de prendre position. À l’origine, Siri essayait d’esquiver complètement la question avec des réponses comme, « Mon nom est Siri, et j’ai été conçu par Apple en Californie. C’est tout ce que je suis prêt à dire ». La documentation d’Apple renforce cette politique : « Dans presque tous les cas, Siri n’a pas de point de vue ».
Les lois de la robotique
Les documents divulgués expliquent ensuite comment l’éthique de Siri devrait fonctionner. L’IA est « motivé par sa première directive – être utile en tout temps », mais « comme tous les robots respectables, Siri aspire à faire respecter les trois lois d’Asimov ». Il y a aussi des règles plus explicites, écrites dans le style des lois d’Isaac Asimov, qu’Apple a pour Siri, qui incluent :
- « Un être artificiel ne doit pas se présenter comme un être humain ni par omission permettre à l’utilisateur de croire qu’il en est un ».
- « Un être artificiel ne doit pas enfreindre les normes éthiques et morales humaines en vigueur dans sa région. »
- « Un être artificiel ne doit pas imposer ses propres principes, valeurs ou opinions à un humain ».
Rien de tout cela n’est particulièrement bouleversant ; Apple a tendance à jouer la sécurité quand il s’agit de la plupart des questions sociales et politiques, probablement parce qu’il est plus facile de vendre des iPhone aux gens quand on ne les offense pas ou ne remet pas en question leurs convictions. Le fait que ces politiques s’appliquent également à Siri n’est pas vraiment choquant.
Mais Apple devrait-elle en faire plus ? C’est l’une des plus grandes et des plus puissantes entreprises de la planète, et Siri — et les réponses qu’elle fournit — est l’option par défaut sur les centaines de millions de produits qu’Apple livre dans le monde. À la lumière de ces révélations sur la façon dont Apple détourne ces réponses de la controverse, c’est probablement une conversation qui vaut la peine d’avoir.