L’essor des intelligences artificielles (IA) génératives comme ChatGPT, Gemini et d’autres outils similaires bouleversent notre quotidien et notre rapport au contenu en ligne. Si ces technologies offrent des opportunités impressionnantes, elles soulèvent également de nombreuses préoccupations, notamment concernant leur capacité à brouiller la frontière entre le réel et le fictif.
Dans une série de publications sur Threads, Adam Mosseri, responsable d’Instagram, a exprimé ses préoccupations concernant la prolifération des contenus générés par l’IA sur les plateformes sociales.
Selon lui, ces plateformes doivent fournir plus de contexte pour aider les utilisateurs à identifier les images et vidéos générées ou modifiées par l’intelligence artificielle.
Voir dans Threads
Informer les utilisateurs pour éviter la confusion
Mosseri insiste sur un point fondamental : ne pas croire aveuglément tout ce que l’on voit sur Internet. Il affirme que les entreprises derrière les réseaux sociaux doivent conseiller leurs utilisateurs à être sceptiques face aux contenus qui semblent réels, mais qui pourraient avoir été créés ou altérés par l’IA.
Il souligne que si les plateformes peuvent (et doivent) étiqueter les contenus générés par l’IA autant que possible, il est inévitable que certains échappent à ces mécanismes de modération. Bien que Mosseri n’ait pas spécifiquement nommé les plateformes en question, ses déclarations laissent entendre une approche similaire à des systèmes comme Community Notes sur X (ex-Twitter) ou d’autres filtres de modération personnalisée, comme ceux présents sur YouTube et Bluesky.
Un problème d’authenticité croissant
La principale préoccupation de Mosseri concerne les contenus difficiles à détecter, c’est-à-dire ceux qui sont subtilement modifiés ou semblent fidèles à la réalité. Par exemple, les photos controversées de Madonna où les retouches ont semé la confusion sur la véracité des images. Contrairement aux créations IA visiblement artificielles, ce sont ces contenus trompeurs qui posent un véritable défi.
Les réseaux sociaux ont toujours été une version soigneusement sélectionnée de la réalité, où les utilisateurs partagent les meilleurs moments de leur vie. Toutefois, l’intelligence artificielle ajoute une couche supplémentaire de complexité, amplifiant l’aspect « irréel » du contenu que nous voyons en ligne.
L’importance de la transparence
Alors que certains contenus sont clairement identifiables comme étant générés par l’IA, d’autres sont tellement réalistes qu’ils brouillent les repères. Cela soulève la nécessité pour les plateformes d’adopter des mécanismes de transparence et d’éducation pour leurs utilisateurs. La sensibilisation et l’étiquetage des contenus sont essentiels pour préserver la confiance et limiter la propagation de fausses informations.
Mosseri conclut que si l’IA risque de rendre les réseaux sociaux encore moins authentiques, il est important de reconnaître qu’ils n’ont jamais été entièrement « réels ». Les utilisateurs, tout comme les plateformes, doivent s’adapter à cette nouvelle ère où la frontière entre réalité et contenu généré par l’IA devient de plus en plus floue.