Meta se retrouve une nouvelle fois au cœur d’une polémique liée à la confidentialité des données, notamment en ce qui concerne l’utilisation des contenus partagés sur Facebook et Instagram pour entraîner ses modèles d’intelligence artificielle.
Des contenus utilisés sans réel consentement ?
La firme de Mark Zuckerberg a récemment annoncé qu’elle commencerait à utiliser les contenus publics des utilisateurs adultes de l’Union européenne pour entraîner ses IA, notamment Meta AI et ses modèles Llama. Cela inclut les photos, vidéos, les commentaires et même les conversations avec Meta AI.
Une décision controversée, surtout après avoir affirmé l’an dernier qu’elle suspendait ce type de collecte en réponse aux réglementations européennes.
Un opt-out… qui ne fonctionne pas
Meta assure que les utilisateurs concernés recevront une notification dans l’application ainsi qu’un e-mail contenant un lien vers un formulaire permettant de s’opposer à l’utilisation de leurs données. Mais dans les faits, cette promesse semble difficile à tenir.
Plusieurs utilisateurs — dont Nate Hake, un blogueur américain — ont rapporté que le lien fourni ne fonctionnait tout simplement pas. Pire encore, lorsqu’il a contacté Meta pour faire part du problème, la réponse obtenue fut que la société « ne pouvait pas donner suite à sa demande ». Un comble, alors même que Meta prétend « respecter tous les formulaires d’opposition reçus ».
I also tried to opt out but got rejected (?) pic.twitter.com/s9ETBSE3Xm
— Gisele Navarro (@ichbinGisele) April 19, 2025
Une confiance qui s’effrite
Ces témoignages soulignent une inquiétante contradiction entre les engagements de Meta et leur application réelle. Malgré les affirmations de transparence, la procédure pour refuser l’utilisation des données personnelles semble inefficace, voire inexistante. Résultat : de plus en plus d’utilisateurs dénoncent un manque de respect pour leur vie privée et une communication trompeuse.
Cette affaire survient alors que la loi sur la sécurité en ligne du Royaume-Uni impose aux plateformes de mieux protéger les mineurs et de mettre en place des mécanismes de vérification de l’âge et de gestion des contenus sensibles. Meta justifie son approche en affirmant suivre les pratiques d’autres géants comme Google et OpenAI. Mais face aux critiques, cela ressemble davantage à une tentative de minimiser l’impact d’une décision controversée.
Meta veut entraîner ses IA avec vos contenus Instagram et Facebook, mais l’outil pour s’y opposer est dysfonctionnel. Une situation préoccupante qui soulève des questions sur le respect de la vie privée et la sincérité des engagements de l’entreprise.