Les réseaux sociaux sont très souvent en proie aux propos haineux. Devenu un terrain de jeu du harcèlement, Twitter souhaite remédier à la chose et teste, en ce moment, un bot qui notifie les utilisateurs sur le point de publier un message malveillant.
« Quand les choses s'enveniment, vous pouvez dire des choses que vous ne pensez pas », a déclaré l'entreprise dans un tweet mardi. Cette option offre simplement « la possibilité de réviser votre réponse avant qu'elle ne soit publiée.»
When things get heated, you may say things you don't mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support (@TwitterSupport) May 5, 2020
Cette fonctionnalité a pour ambition de rendre le réseau social plus cordial en incitant les utilisateurs à reconsidérer leurs tweets dès lors que ceux-ci comportent des insultes, par exemple. Pour ce faire, Twitter scanne les 280 caractères à la recherche d'éléments de langage pouvant être nuisibles.
La fonction ne sert qu'en guise d'avertissement, l'utilisateur peut tout de même publier son tweet tel qu'il le souhaite. Cette fonction pose plusieurs questions. On ne sait pas si Twitter se base simplement sur un dictionnaire de gros mots ou utilise des procédés plus avancés pour détecter les propos haineux. Quand bien même ce serait la seconde solution, le système peut-il détecter l'ironie ? Le test en cours est effectué chez une partie des utilisateurs iOS uniquement.