Alors qu’Apple s’apprête à scanner les iPhone et les sauvegardes iCloud des utilisateurs à la recherche de photos et de vidéos relatives à des contenus d’abus sexuels sur enfants (CSAM), des rapports récents suggèrent que le géant de Cupertino scanne les e-mails iCloud des utilisateurs à la recherche de tels contenus depuis deux ans.
L’entreprise l’a confirmé dans une déclaration à 9to5Mac, qui a commencé à enquêter sur le sujet après une déclaration discrète dans iMessage du responsable anti-fraude d’Epic Games, Eric Friedman. Il aurait déclaré qu’iOS d’Apple est « la plus grande plateforme de distribution de pornographie des enfants ». Suite à cela, 9to5Mac a contacté le géant de Cupertino pour obtenir plus de commentaires.
Apple, dans une déclaration à l’éditeur susmentionné, a confirmé qu’elle a scanné les e-mails transitant sur iCloud des utilisateurs à la recherche d’images ou de pièces jointes relatives à des contenus pédopornographiques.
Selon la déclaration, la société scanne les e-mails entrants et sortants des utilisateurs qui sont envoyés depuis iCloud. Et comme les e-mails iCloud ne sont pas chiffrés, il n’est pas très difficile de les scanner en transit.
Maintenant, si vous vous souvenez, au début de l’année 2020, nous avons vu un rapport qui indiquait comment le processus de balayage CSAM d’Apple fonctionne à travers les e-mails. Ainsi, selon le précédent rapport, Apple scanne les métadonnées des images qui ont déjà été identifiées par CSAM. Si le système détecte une telle image dans un e-mail d’un utilisateur, il signale immédiatement l’e-mail jusqu’à ce qu’un opérateur humain le vérifie. Si un contenu CSAM pertinent est découvert dans l’e-mail identité, le nom, le numéro de téléphone et l’adresse du coupable sont transmis à Homeland Security.
Une bonne chose
À l’époque, un expert en cybersécurité de l’université du Surrey avait déclaré : « Je pense que l’équilibre établi par Apple est bon. Il permet la recherche d’images extrêmes connues, mais comporte également des garanties pour empêcher l’abus de la capacité de recherche dans les e-mails. »
Ainsi, le processus de balayage des e-mails iCloud n’est pas contraire aux politiques de l’entreprise et Apple maintient un bon équilibre entre la découverte de contenu CSAM et la vie privée des utilisateurs. Cependant, on ne sait pas encore si la société utilisera le même processus pour scanner les images de l’iPhone d’un utilisateur et les photos iCloud. Nous en saurons plus sur les plans d’Apple pour lutter contre les contenus d’abus sexuels sur enfants sur sa plateforme une fois que la fonctionnalité sera disponible avec iOS 15.