Dans le cadre de ses efforts continus pour ramener la civilité dans les discussions en ligne, Twitter a commencé à tester un nouvel outil de modération qui avertira les utilisateurs avant qu’ils ne publient des réponses contenant un langage que l’entreprise juge « préjudiciable ».
La plateforme de micro-blogging décrit cette fonctionnalité comme une « expérience limitée » disponible pour certains utilisateurs sur iOS, mais on peut s’attendre à ce qu’elle soit déployée plus largement et sur davantage de plateformes dans les jours à venir.
L’entreprise a annoncé la nouvelle fonctionnalité depuis un tweet ce mardi, dans lequel elle déclare : « Quand les choses s’enveniment, vous pouvez dire des choses que vous ne pensez pas. Pour vous permettre de repenser une réponse, nous menons une expérience limitée sur iOS avec un prompt qui vous donne la possibilité de revoir votre réponse avant qu’elle ne soit publiée si elle utilise un langage qui pourrait être nuisible ».
When things get heated, you may say things you don’t mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
—Twitter Support (@TwitterSupport) May 5, 2020
Essentiellement, si vous publiez des insultes, messages de haine ou jurons dans une réponse, Twitter pourrait vous réprimander comme votre professeur d’école. Il n’y a pas de clarté pour le moment sur ce que Twitter considère comme « nuisible ». L’entreprise a mis en place une politique de discours de haine qui s’attaque à des problèmes plus larges tels que les images nuisibles et de violentes menaces.
De plus, nous n’avons aucune idée si l’IA de Twitter est assez puissante pour détecter les changements d’orthographe délibérés et les fautes de frappe que quelqu’un pourrait faire, afin d’éviter que leurs tweets répugnants ne soient repérés.
Un fléau
La nouvelle fonctionnalité de Twitter est la dernière d’une série d’actions sur la cyberintimidation sur les réseaux sociaux pour faire face aux discours de haine et aux comportements abusifs. Elle fait suite à une initiative analogue d’Instagram à la fin de l’année dernière, qui a commencé à déployer la fonction d’avertissement de légende à l’échelle mondiale afin de réprimer les messages abusifs et haineux sur sa plateforme. La société appartenant à Facebook avait précédemment annoncé qu’elle utiliserait l’IA pour freiner l’intimidation sur son site.
Il sera intéressant de voir comment les utilisateurs et les défenseurs de la liberté d’expression réagiront à ce nouveau développement, mais s’il devient un jour une fonctionnalité standard de Twitter sur toutes les plateformes disponibles, il pourrait avoir un effet majeur sur la réduction du langage offensant, de l’intimidation et de l’hostilité ouverte qui ont connu une croissance exponentielle sur les plateformes des réseaux sociaux au fil des ans.