Vidéo de Christchurch : le Conseil français du culte musulman porte plainte
Le CFCM a déposé une plainte contre Facebook et YouTube qui avaient permis la diffusion en direct de la vidéo du massacre de 50 fidèles en Nouvelle-Zélande.
Le Conseil français du culte musulman (CFCM) a annoncé ce lundi qu'il portait plainte contre Facebook France et YouTube France pour avoir diffusé la vidéo du massacre de 50 fidèles par un extrémiste australien à Christchurch, en Nouvelle-Zélande.
Le CFCM porte plainte pour "diffusion de message à caractère violent incitant au terrorisme ou de nature à porter gravement atteinte à la dignité humaine susceptible d'être vu ou perçu par un mineur", selon la plainte envoyée au procureur de la République de Paris.
Responsabilité pénale
Le CFCM fait valoir que les "actes de terrorisme étaient maintenus" sur Facebook "29 minutes après le début" de sa diffusion, "avant que les modérateurs de Facebook le retirent. Minutes durant lesquelles des mineurs ont eu accès à ce film, et notamment des mineurs de confession musulmane, profondément traumatisés par ce film".
Il ajoute que "le défaut de célérité de Facebook pour supprimer la vidéo litigieuse a eu pour conséquence sa publication sur YouTube peu de temps après le direct" et que la vidéo "a ainsi été diffusée sur le territoire national par le biais de ces deux plateformes".
"Ces réseaux sociaux engagent leurs responsabilités pénales en raison de la gravité du crime et des conséquences psychologiques chez les plus jeunes. En effet, les dispositifs mis en place par ces réseaux sociaux ne garantissent pas l'impossibilité matérielle pour les mineurs d'en prendre connaissance", selon le CFCM.
1,5 million de copies de la vidéo
Brenton Tarrant, auteur présumé du massacre dans deux mosquées de Christchurch, s'était filmé durant la fusillade et avait diffusé les images en direct sur Facebook. La vidéo aurait été vue moins de 200 fois en direct mais, dans les 24 heures suivant l'attaque, Facebook explique avoir retiré 1,5 million de copies de la vidéo, encore visible sur certains sites (forums de suprémacistes blancs ou d'adolescents fascinés par la violence) en fin de semaine dernière.
Avec la diffusion en direct du massacre de Christchurch, les critiques se sont multipliées et sont devenues plus fortes encore. La Première ministre néo-zélandaise Jacinda Ardern a notamment appelé les gouvernements du monde entier à s'attaquer au problème.
"Conçu pour devenir viral"
Facebook comme YouTube ont depuis tenté de se justifier, mettant en avant les efforts réalisés pour éviter la propagation de ce type de contenu. Ils répètent d'abord que leur mission est à l'opposé de ces actes : elle est de "donner une voix aux gens et de les rapprocher", comme le dit souvent le fondateur de Facebook, Mark Zuckerberg.
Nos systèmes d'intelligence artificielle s'entraînent avec des données, ce qui implique le traitement de milliers d'exemples pour détecter un certain type de texte, d'image ou de vidéo", a souligné mercredi dernier le vice-président de Facebook Guy Rosen. "Cette méthode a très bien fonctionné pour la nudité, la propagande terroriste mais aussi la violence, quand on a de nombreux exemples. Cependant, cette vidéo en particulier n'a pas éveillé l'attention de nos systèmes de détection automatique".