Logo COJ

Rencontre & Réflexion

Comment gérer les « trolls » ?

  14 Déc , 2018   , ,    COJ

Panneau d’interdiction de nourrir les trolls. CC/Sam Fentress.

La modération des commentaires « indésirables » sur Internet est un vrai casse-tête pour les éditeurs de contenus. Tour d’horizon des initiatives dans le domaine... 

Dans un monde idéal, le mieux serait de répondre à ces commentaires et de les déconstruire en argumentant de manière constructive. Les publics de ces échanges liraient les échanges et se forgeraient une idée nuancée des problématiques évoquées. Dans la pratique, cette solution est chronophage et un peu candide.

Filtrer les commentaires en amont ? Il est possible de se prémunir des commentaires indésirables tout simplement en les désactivant. Cette solution rejoint par exemple le choix du groupe de presse Roularta en 2017. Elle a l’avantage d’être peu coûteuse, techniquement et humainement. En revanche, elle manifeste peu d’ouverture à l’expression citoyenne et n’empêche pas les commentateurs de s’en donner à cœur joie sur les médias sociaux, sur d’autres plateformes ou sur des forums. Autre manière : ne pas autoriser le pseudonymat ou l’anonymat. Plusieurs sites obligent à s’identifier avant de commenter. Problème : il est très facile de contourner cette règle en s’inventant une identité fictive. Par ailleurs, afficher son identité réelle n’empêche pas certains de tenir des propos destructeurs.

La modération a priori consiste enfin à ne valider des commentaires qu’après relecture. Cette solution prend du temps. Certains dispositifs techniques automatisent en partie cette activité par exemple en bannissant d’office un certain nombre de mots considérés comme racistes, homophobes, sexistes, insultants ou violents. Toutefois, ces filtres automatiques ne fonctionnent pas face à des messages dont le contenu est moins explicite, avec l’ironie, et puis il est facile de les contourner (par exemple, en écrivant P$ au lieu de PS, en écrivant « les muzzs » au lieu de « les musulmans », etc.).

D’autres dispositifs sont imaginés pour favoriser des interventions constructives. Certains proposent par exemple une sorte de mini quiz avec des questions auxquelles il faut obligatoirement répondre correctement avant de commenter. Cela forcerait les personnes à se baser un minimum sur le fond et les mettrait davantage dans une posture participative.

Une modération en aval des commentaires ? Un modérateur peut par exemple procéder à la suppression des commentaires indésirables. Plusieurs médias sociaux, comme Facebook par exemple, utilisent ce procédé sur base de signalements (impliquant donc la communauté des utilisateurs). Ce mode de fonctionnement fait encourir le risque de promouvoir indirectement les propos supprimés ou l’utilisateur banni (technique de victimisation).

Nous l’avons dit, une autre manière de gérer les commentaires a posteriori consiste à répondre à ceux-ci. En plus de coûter du temps, ce travail suppose d’être assez confiant sur ses propres facultés d’argumentation et sur les aptitudes des publics de l’échange à s’en approprier ou non le propos. L’un des risques est de « nourrir le troll », en lui donnant de l’attention, et du coup de le « faire grandir », ne serait-ce qu’en visibilité.

De ce fait, il existe des solutions techniques un peu plus élaborées, comme par exemple le Shadowban, c’est-à-dire le fait de bannir un utilisateur ou masquer ses propos sans que celui-ci ait conscience qu’il est banni ou masqué. Dans une optique similaire, il existe des « bots Internet » programmés pour répondre automatiquement des arguments prédéfinis à certains types de commentaires. Le but de ces robots est d’épuiser les trolls dans une argumentation sans fin : ils se retrouvent confrontés à des « appâts » qui les contredisent inlassablement en boucle, sans les lire. Ce temps passé à « débattre face à un mur » ne l’est pas à alpaguer d’autres utilisateurs. D’autres méthodes font le pari de l’intelligence collective en essayant de valoriser les apports positifs par des systèmes de tags ou de notation, par exemple, faisant office de « filtres
qualitatifs ».

Notons qu’il y a aussi la possibilité de sanction légale. Nous assistons aux premières « grandes » condamnations symboliques de propos tenus sur Internet. Problème majeur : la voie judiciaire est coûteuse en temps, en argent et en énergie. De plus, notamment en ce qui concerne des mineurs, il y a un risque de « criminaliser » à outrance des comportements dans un contexte face auquel ils n’ont pas été éduqués.

Enfin, le modèle de contribution à Wikipédia illustre encore une autre façon de faire. La structure est extrêmement normée, codifiée et contrôlée par différents niveaux de modération et des possibilités de discussion. Cela me semble être une piste intéressante, notamment au niveau éducatif.

Toutes ces stratégies relèvent en fait d’une « lutte anti symptômes ». Pour bien faire, cela ne suffit pas de cacher, supprimer ou déconstruire des commentaires indésirables mais d’aller au-delà, de favoriser des échanges harmonieux et constructifs, notamment à travers une prise de parole et une posture éducative… 

Julien Lecomte,

Chroniqueur de la société des médias ( sociaux)