Insultes racistes en ligne : des actes qui restent souvent impunis

Le TGI de Paris a assigné en référé ce jeudi 8 novembre Orange, Bouygues et sept autres opérateurs télécoms pour qu’ils bloquent un site accusé de propager des contenus haineux. Des contenus rarement supprimés.

C’est une première. Ce jeudi 8 novembre, neuf opérateurs de télécoms, dont Orange, Bouygues et Free, ont été assignés en justice par le Tribunal de grande instance (TGI) de Paris. Le procureur a demandé aux juges de constater le « trouble manifestement illicite » causé par le blog « Démocratie participative », auteur de messages à caractère raciste, antisémite et homophobe. Les opérateurs pourraient être obligés de bloquer l’accès au site. Une démarche inédite, mais il s’agit d’un cas rare.

Axelle B., 21 ans, a été victime d’insultes racistes sur le réseau social Twitter en novembre 2017, mais n’a jamais obtenu gain de cause. Etudiante en journalisme, elle commente en direct sur son compte une manifestation contre des prières de rue à Clichy-la-Garenne (Hauts-de-Seine). Rapidement, un de ses tweets, dans lequel elle cite un fidèle, est partagé par une dizaine de militants d’extrême-droite. « Journaliste collabo », « islamiste », puis « sale arabe », les insultes se font de plus en plus violentes à l’égard de la jeune femme d’origine algérienne et arménienne et prennent un caractère raciste.

Pendant près d’un mois, Axelle B. reçoit une centaine de messages visibles sur son compte Twitter ou envoyés en privé, faisant référence à ses origines étrangères. 

Comme souvent dans les cas de harcèlement en ligne, les messages d’insultes se multiplient rapidement. « Au début, je n’avais que quelques messages, mais petit à petit c’est devenu un flot permanent », raconte-t-elle. La jeune femme signale les comptes litigieux auprès de Twitter, sans succès. Seul un des messages, parmi les centaines reçus pendant un mois, a été supprimé par Twitter. Et aucun compte d’utilisateur n’a été bloqué.

Une situation qui n’est pas sans conséquence pour la jeune femme. « Au début ça me faisait rire, puis plus du tout quand j’ai commencé à lire des commentaires qui appelaient à me violer ou à me tuer. Ça ne fait pas du bien au moral ! », raconte l’étudiante d’un rire nerveux.

« Il y a un décalage entre les évolutions numériques et la loi »

Les cas similaires à ceux d’Axelle B. sont quotidiens sur Internet. Nombreuses sont les plateformes, tels que Twitter ou Facebook, à ne pas retirer de leur site des propos appelant à la haine. Elles en sont pourtant responsables lorsque les messages illicites ont été délibérément mis en ligne ou laissés en ligne. Même chose du côté des opérateurs français, comme Orange et Bouygues, dont la responsabilité peut aussi être mise en cause lorsqu’ils hébergent des pages personnelles.

D’après une enquête réalisée par le « Mouvement anti-raciste européen » (Egam) dans 14 pays, seulement un tiers des contenus haineux signalés par les associations sont retirés sur Facebook, Twitter et YouTube en moins de 24 heures. Sur Twitter, le taux chute à 15%.

Pour Hermann Ebongué, secrétaire général de l’association « SOS Racisme », « la législation n’est pas encore au point » concernant la lutte contre les actes racistes en ligne. « Il y a un décalage entre les évolutions numériques et la loi », explique-t-il, « aujourd’hui, les fournisseurs d’accès ne sont pas hébergés en France. Donc ils ne dépendent pas de la législation française. » Une difficulté pour faire reconnaître le délit d’appel à la haine inscrit dans la loi française, mais inexistant aux Etats-Unis.

Hermann Ebongué a été directement confronté à ces obstacles. En 2012, il dépose une plainte au tribunal de Lyon pour que soit retirée de Youtube une vidéo de supporters de l’Olympique lyonnais revendiquant le « white power » (le suprémacisme blanc). Elle est transmise en Californie, où réside l’hébergeur. L’affaire traîne pendant trois ans avant que le militant ne soit débouté. La raison principale invoquée : la liberté d’expression, valeur sacrée aux Etats-Unis et protégée par le Premier amendement de la Constitution.

Autre obstacle qui a empêché la suppression de la vidéo : les algorithmes. « Les plateformes ne retirent jamais les contenus litigieux manuellement. Elles le font par mot-clé. Et comme en soi, l’expression ‘white power’ n’est pas raciste, Youtube a affirmé que le contenu ne pouvait pas être retiré » explique Hermann Ebongué, d’une voix désabusée.

Connaissant les difficultés à faire retirer un contenu haineux, le militant anti-raciste salue le jugement en référé des opérateurs en télécoms face au blog « Démocratie participative » de ce jeudi 8 novembre. « C’est une bonne nouvelle, ça envoie un signal fort », se réjouit-il. Avant de préciser : « il y a un travail à la fois de répression et de sensibilisation à faire auprès de tous les internautes. Il faut leur dire qu’ils doivent porter haut les valeurs de respect et de fraternité, tout en leur rappelant la législation » explique-t-il. « Mais seuls, on ne pourra pas régler le problème. On a besoin des hébergeurs. » La décision du tribunal est attendue le 27 novembre prochain.