Publié par CEMO Centre - Paris
ad a b
ad ad ad

Désinformation russe : « Peu importe que le faux soit grossier, pourvu qu’il capte l’attention »

samedi 09/avril/2022 - 02:16
La Reference
طباعة
Les corps de centaines de civils gisant dans les rues de Boutcha, en Ukraine, venaient à peine d’être découverts, le 2 avril, lorsque des premiers contenus ont commencé à circuler sur Internet pour nier la réalité du massacre. En quelques jours ont afflué quantité de théories alambiquées, basées sur un détail microscopique d’un reportage, sur une vidéo de tournage de film détourné, comme si tout était bon pour semer le doute, le plus vite possible. Une opération répétée à chaque nouvelle séquence, témoignant de ce qui peut être qualifié de crime de guerre.

Stephanie Lamy est cofondatrice de l’association danaides.org, qui développe des outils numériques d’aide aux civils en zones de conflit, et autrice d’Agora toxica, la société incivile à l’heure d’Internet (Editions du détour, 2022). Elle analyse le fonctionnement de la propagande russe et de ses relais dans la société civile.

Lire aussi : Guerre en Ukraine : ces intox qui cherchent à faire passer le massacre de Boutcha pour une mise en scène
Certaines des intox circulant sur Boutcha reposent sur l’idée que les morts seraient des mannequins. Comment expliquer ce tour de pensée si particulier ?
Ce type d’« intox » est produit dans le cadre de la stratégie de l’agresseur, nommée en anglais Darvo (acronyme de deny, attack and reverse victim and offender), pour « attaquer et décrédibiliser les victimes de violences ». Par exemple, lors de la tuerie de Sandy Hook, aux Etats-Unis, en 2012, l’idée qu’il y ait des crisis actors [théorie selon laquelle des acteurs professionnels se font passer pour des victimes] a été très répandue. Ce n’est pas étonnant que le procédé ait été calqué pour l’Ukraine, ce sont les mêmes communautés.


C’est la raison pour laquelle il ne faut pas regarder fake par fake, mais observer les tactiques. Ce sont les mêmes qui reviennent. Ils appliquent cette matrice, ce mode de raisonnement suspicieux à chaque contenu, et il leur suffit de les appliquer à chaque situation.

On parle souvent de l’art opératoire de l’armée russe sur le champ militaire. Peut-on parler d’art opératoire sur le champ de la désinformation aussi ?
Oui, ce sont des chaînes de production, avec une logistique, des personnes qui ont différents rôles. C’est une organisation sociale qu’on observe pour chaque communauté d’action, même si c’est probablement plus institutionnalisé à mesure que l’on se rapproche de l’Etat et du Kremlin. Mais il faut rappeler que ce phénomène est « transplate-forme » et ces groupes-là sont poreux entre eux.

Peut-on mettre sur le même plan les cas de désinformation ukrainienne avec la désinformation russe ?

Je parlerais plutôt côté ukrainien de mésinformation, c’est-à-dire d’informations erronées, mais qui ont été vraies ou partiellement vraies à un moment donné. En ce moment, on est dans une situation fluide, où ce que l’on peut savoir évolue vite. On peut citer l’épisode de l’île aux serpents [les autorités ukrainiennes avaient annoncé la mort de treize soldats, avant de faire marche arrière], des dérapages comme le fantôme de Kiev [une légende urbaine attribuant des exploits hors normes à un pilote d’avion ukrainien probablement imaginaire], et des tentatives d’étouffement de crimes de guerre, comme des soldats ukrainiens torturant des soldats russes. Mais même sur ces histoires, il y a finalement eu reconnaissance du besoin d’enquête. Il y a aussi la probabilité que des chiffres de pertes des troupes aient été minorés.

Mais, dans le fond, on ne parle pas de la même chose. La Russie agresse l’Ukraine, et retourne la situation d’agresseur-agressé, par différentes tactiques d’armes sémantiques, pour modifier la perception d’un certain public, faire passer la Russie comme victime et justifier la violence.

Vous parlez de « stratégie du grain de sable », de quoi s’agit-il ?
C’est l’hypercaptation de l’attention sur des détails minimes, alors que la commission des violences est beaucoup plus large que ça. Par exemple, dans le cas de Boutcha, obliger à focaliser sur l’état de décomposition des corps, ce qui demande un investissement d’attention et d’émotion très fort. Quand on se focalise sur un tel détail, on ne voit plus le reste. Cela fait oublier que ce grain de sable est posé sur une plage constituée de milliers de grains de sable. C’est une forme de diversion, de manipulation de l’attention avant tout. On en oublie le cadre large, le fait que la Russie attaque l’Ukraine, ce qui est un crime, et qu’il y a des milliers de victimes.

Certains faux paraissent grotesques. Est-ce un signe d’amateurisme ou qu’il n’y a pas besoin de faux très élaborés pour pervertir l’information ?
Le problème, c’est que quand on a un cadre de lecture « vrai ou faux », on en oublie que ces campagnes ont pour but de divertir l’attention. Le simple fait d’en discuter le montre. Cela n’a pas besoin d’être fin. Cela doit juste capter. Et de ce point de vue, peu importe que le faux soit grossier, l’objectif est atteint.

Certaines photos et vidéos utilisées dans la propagande pro-Kremlin viennent de TikTok, d’autres, de Telegram, d’autres encore, d’American Press… Comment est-il possible de les dénicher et de les exploiter aussi vite ?
Nous sommes face à une action collective, avec des gens extrêmement engagés et réactifs, a fortiori dans le contexte d’une guerre. Les contenus qui circulent sont presque tous piochés sur des médias pro-ukrainiens. Ces communautés d’action – pour ne pas dire complotistes – vont chercher des informations ou images pour les distordre et les décontextualiser. Ils ne créent rien, ils agissent en réaction à des contenus pro-Ukrainiens déjà largement relayés. Cela montre qu’ils surveillent ces réseaux-là, qu’ils sont également organisés.

"