Alors que le terroriste responsable de la tuerie de Christchurch du 15 mars 2019 a filmé et diffusé son attaque en direct sur Facebook, la question de la modération sur les réseaux sociaux est plus que jamais d’actualité.

Comment Facebook a-t-il pu laisser une telle diffusion 17 longues minutes sans recourir au blocage ?

Un algorithme qui ne censure pas mais accroit la visibilité des vidéos de Facebook Live

Supprimer les photos de mamelons féminins : oui. Supprimer la vidéo d’une attaque de mosquées néo-zélandaises : non. Curieux et terrible paradigme que celui défini par Facebook, même involontairement. L’algorithme de modération du réseau social a en effet était incapable de détecter des images d’une indescriptible violence, et doit de surcroit être corrélé avec un autre algorithme : celui qui met en avant le contenu vidéo posté sur Facebook Live.

Il aura fallu le signalement d’un utilisateur

Dans le cas de Christchurch, l’alerte a été donnée via le signalement d’un utilisateur. Un peu tard puisque, comme le rapportait le Washington Post, « le massacre […] a été […] annoncé sur 8chan, retransmis sur YouTube, commenté sur Reddit, et copié dans le monde entier avant même que les sociétés de technologie ne puissent réagir« . Pour Mia Garlick, porte-parole de Facebook en Nouvelle-Zélande, le réseau social travaille pour supprimer « tout éloge ou soutien envers le crime et le tireur ou les tireurs ». Un peu maigre ?

Catégories : Facebook

0 commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.