Anciennement connu sous le nom de Twitter, X, a mis en place un système de vérification des faits par la communauté, appelé Notes de la Communauté. Ce système permet aux membres approuvés de joindre des notes écrites à un message susceptible de contenir des informations trompeuses.
Une fois qu’une note de la communauté est jointe à un message problématique, elle devient visible pour tous les utilisateurs afin qu’ils obtiennent le contexte « vérifié » du contenu qu’ils voient.
Jusqu’à présent, les notes communautaires ne concernent que les messages textuels. Il y a seulement une semaine, X a ajouté la prise en charge des images. Aujourd’hui, l’entreprise a annoncé que Notes de la Communauté prenaient également en charge les contenus vidéo. À l’avenir, chaque fois qu’une vidéo douteuse sera partagée sur la plateforme, un système piloté par l’intelligence artificielle établira une correspondance avec la source, identifiera le clip, puis joindra la note communautaire afin que les utilisateurs soient informés de sa nature.
La prise en charge multimédia étant désormais possible pour les photos comme pour les vidéos, X espère mettre un terme à la diffusion et aux dommages causés par les « clips édités, les vidéos générées par l’IA » et d’autres formes de contenu préjudiciable.
Les notes de la communauté sont rédigées par un groupe d’experts sélectionnés dans plus de 40 pays. Aussi utile que cette fonction puisse paraître, elle présente quelques défauts fondamentaux. Par exemple, pour qu’une note de la communauté devienne visible, elle doit d’abord être approuvée par les membres des deux camps. Cela peut créer une situation dans laquelle un contenu nuisible ou trompeur peut ne pas être vérifié pendant un certain temps avant d’être étiqueté avec la clause de non-responsabilité appropriée, si tant est qu’il le soit.
Ce n’est pas une panacée pour les mauvais contenus
Cela ne remplacera en aucun cas le travail rigoureux effectué par les organisations spécialisées dans la vérification des faits, qui sont plus rapides et disposent d’un groupe d’experts certifiés sans aucune des limitations de consensus que X a imposées aux notes de la communauté.
« Essentiellement, il exige un “accord inter-idéologique sur la vérité” et, dans un environnement de plus en plus partisan, il est presque impossible d’atteindre ce consensus », déclare l’Institut Poynter dans une analyse du système Community Notes. Une autre faille critique est la mise en œuvre dramatiquement disproportionnée par X de ses fonctions de modération, de sécurité et de sûreté.
Rétrospectivement, Community Notes a indirectement transféré la responsabilité de la vérification des faits à ses utilisateurs les plus prolifiques possédant un certain niveau d’expertise, au lieu de confier cette tâche à une équipe dédiée à la confiance et à la sécurité. Elon Musk s’est illustré en vidant de sa substance l’équipe de sécurité de l’entreprise peu après sa prise de fonction, mais il est en train de la reconstruire alors que X s’ouvre aux publicités politiques sur son marché local après avoir imposé une interdiction en 2019.