Le mois dernier, il a été rapporté que Zoom allait développer une nouvelle technologie d’intelligence artificielle (IA) capable de scanner le visage et la vitesse des utilisateurs pour déterminer leurs émotions. La plateforme, qui n’en est qu’aux premiers stades de son développement, fait maintenant l’objet d’une réaction négative de la part de plusieurs groupes de défense des droits de l’homme, tels que Access Now, l’American Civil Liberties Union (ACLU) et la Muslim Justice League.
Mercredi, plus de 25 groupes de défense des droits ont envoyé une lettre au PDG de Zoom, Eric Yuan, afin de mettre un terme aux recherches de l’entreprise sur l’IA basée sur les émotions.
Esha Bhandari, directrice adjointe du projet « Speech, Privacy, and Technology » de l’ACLU, a déclaré qu’une IA de ce type était une « technologie effrayante ». Caitlin Seeley George, directrice des campagnes et des opérations de Fight for the Future, a déclaré : « Si Zoom va de l’avant avec ces plans, cette fonctionnalité sera discriminatoire envers les personnes de certaines ethnies et les personnes handicapées, codant en dur les stéréotypes dans des millions d’appareils ».
Elle a poursuivi : « Au-delà de l’exploitation des utilisateurs à des fins lucratives et de la possibilité pour les entreprises d’en tirer profit, cette technologie pourrait être utilisée à des fins bien plus sinistres et punitives ».
Zoom IQ, le futur de la plateforme ?
Zoom a exposé ses plans pour la technologie de l’IA. Dans un article de blog publié le mois dernier, la société a expliqué en détail le concept de « Zoom IQ ». La plateforme a déclaré qu’il serait utile aux personnes travaillant dans le domaine de la vente, car elles pourraient déterminer les émotions des personnes qui sont en ligne afin d’améliorer leurs présentations.
Zoom IQ suit des paramètres tels que la vitesse de parole, le monologue, la patience, la radio de parole-écoute, les questions engageantes, les prochaines étapes, l’étape suivante, le sentiment et l’engagement. En outre, Zoom a fait remarquer que les données qu’il recueille ne seront utilisées qu’à des fins d’information, ce qui signifie qu’il peut y avoir des inexactitudes en cours de route.
Évidemment, ce n’est pas la première fois que des groupes de défense des droits s’élèvent contre la technologie de l’IA.