Twitch est une plateforme de streaming vidéo sur laquelle des “streamers” peuvent partager du contenu et échanger en direct avec leurs communautés via un tchat.
Face aux vagues de messages insultants et aux raids haineux que subissent certain(e)s streamers et streameuses, la plateforme s’est lancée dans la création d’une intelligence artificielle (IA) pour y faire barrage.
Ce nouvel outil visant à combattre le cyberharcèlement, baptisé Suspicious User Detection, est particulièrement destiné aux streamers issus de minorités (ethniques, religieuses, sexuelles) mais aussi aux femmes, qui, sur Twitch, sont les premières victimes de cyberharcèlement. Plusieurs rapports de la plateforme ont en effet montré que les streameuses ont pratiquement toutes été victimes de violence en ligne.
Dans un tweet, Twitch explique : “La détection d’utilisateurs suspects vous aide à identifier les comptes suspectés de contourner un bannissement et à les empêcher d’envoyer des messages avant qu’ils ne puissent perturber votre stream.”
Grâce à une technologie qui se base sur le “machine learning”, Twitch sera donc désormais en mesure de savoir quand un utilisateur crée un nouveau compte anonyme pour retourner commenter les chaînes qui les ont bannis. Le principe est donc simple : bannir les haters avant qu’ils n’agissent.
Si vous êtes victimes ou témoins de cyberharcèlement sur Twitch, vous pouvez toujours signaler l’utilisateur et le bloquer.


