Sur les réseaux sociaux, la propagande terroriste s'amplifie en se jouant de la censure
D’après des chercheurs spécialisés dans l’analyse des activités extrémistes en ligne, l’activité des comptes proches des organisations terroristes a augmenté de 69 % sur le réseau social Twitter depuis que le multimilliardaire Elon Musk a pris la tête de celui-ci. Faux comptes, messages codés, textes "brisés" : ces utilisateurs disposent d’une large palette de techniques pour tenter de contourner les censures, qu’ils déploient également sur les autres plateformes comme YouTube ou Facebook.
Publié le :
En mars dernier, Elon Musk se proclamait "absolutiste de la liberté d’expression". Et, sur Twitter, il sondait ses abonnés pour savoir s’ils trouvaient que celle-ci était bridée sur le réseau social (ils étaient 70 % à le penser).
C’est peu dire que la prise de contrôle de Twitter par le milliardaire, le 27 octobre, a ravivé les craintes de voir un retour en force des fausses informations et des discours haineux, jusque-là modérés tant bien que mal. Les constats faits par des chercheurs de l'Institut pour le dialogue stratégique (ISD) ne rassureront pas les inquiets : depuis début novembre, les contenus relayant la propagande des groupes terroristes, notamment l’organisation État islamique, ont explosé.
Mais si, sur Twitter, cette nouvelle donne s’avère concomitante au changement de propriétaire, l'accroissement de l’activité des comptes proches des organisations terroristes, notamment de l'organisation État islamique, se remarque aussi sur Facebook ou YouTube. "Nous avons constaté une augmentation de la capacité des soutiens des groupes terroristes à s'adapter au contenu et aux techniques de modération de différents réseaux sociaux", fait valoir à la rédaction des Observateurs Moustafa Ayad, chercheur et directeur exécutif de l’Institut pour le dialogue stratégique, qui analyse l’activité des groupes extrémistes sur le web.
Dissimulation des marques au mépris de l’intelligence artificielle
Tous les contenus, visuels, textuels et codés sont concernés. Pour résister à la modération, il s’agit surtout de "dissimuler les symboles devenus synonymes de l'[organisation] État islamique, et ce n'est pas nécessairement son drapeau, en les recouvrant d'émojis ou en utilisant des effets secondaires pour dessiner ou gribouiller le contenu afin de le rendre plus difficile à identifier par l'intelligence artificielle", soutien le chercheur.
L’usage des émojis, prisé par les partisans non officiels des groupes terroristes, sert également à diffuser la propagande de façon à complexifier la tâche de signalement confiée à l’intelligence artificielle, voire la rendre inutile. Certains émojis ont même été "codifiés" par ces comptes extrémistes pour véhiculer certains messages ou informations à leurs abonnés, sinon détectables en texte.
Le "texte brisé", le casse-tête de toutes les plateformes
La désinformation de ces comptes se décline parfois sur les réseaux sociaux dans sa forme la plus élémentaire. Des comptes utilisant des noms visant à se faire passer pour des médias diffusent de l'information destinée à glorifier les actes et opérations des jihadistes. Ils pullulent sur les réseaux sociaux : "Breaking News", "Iraq News" ou "ISW News"... sont par exemple des appellations génériques que se donnent des pages et comptes diffusant la propagande terroriste. D’autres reprennent carrément le logo de vrais médias pour tenter de faire passer leur message.
Plus insaisissable encore, le "texte brisé", de l’anglais "broken text", demeure le casse-tête par excellence pour toutes les plateformes, y compris les plus populaires d'entre elles. Cette façon d’écrire parvient même à échapper à la modération manuelle effectuée par des êtres humains. "Ils le font en mélangeant l’anglais et l’arabe. Ils le font également dans d'autres langues, où les mots ou les commentaires sensibles sont brisés par la ponctuation ou d'autres symboles. Ainsi, un mot comme "jihad" sera séparé par un point, une barre oblique ou des symboles."
Meta, l’entreprise détentrice de Facebook, affirme avoir appliqué des mesures diverses de sanction à plus de 16,7 millions de contenus relevant du terrorisme entre juin et septembre 2022. Un chiffre sensiblement plus important que celui du trimestre précédent (13,5 millions de contenus). Du côté de YouTube et durant la même période, on affirme avoir supprimé 67 516 vidéos faisant "promotion de la violence et de l'extrémisme", un chiffre en légère baisse par rapport au trimestre précédent.
"Adopteurs précoces" de nouvelles plateformes
La diffusion du terrorisme, et plus particulièrement le soutien en ligne au terrorisme, est une affaire en constante évolution. Pour contourner la censure, artificielle ou effectuée manuellement par des modérateurs, les comptes associés aux groupes terroristes utilisent des techniques qui se sont affinées au fil du temps.
Considérés comme étant des "adopteurs précoces", les soutiens des groupes terroristes, notamment ceux de l'organisation État islamique, sont parmi les premiers à tester et à se saisir du potentiel de nouvelles plateformes et techniques pour véhiculer leur propagande.
La survie du contenu violent en ligne est un terrain d'expérimentation pour les comptes orbitant dans l'univers terroriste. De nouvelles techniques visant à promouvoir ce type de contenu et à le diffuser auprès d'un public de plus en plus large sont testées régulièrement par ces acteurs. "Une stratégie d'essai et d'erreur", selon le chercheur Mousatafa Ayad, qui souligne que "ce qui réussit finit par devenir la norme quant à la façon dont ces comptes privilégient de partager le contenu".
"YouTube peut retirer un contenu en 30 minutes, Twitter entre 6 et 12 heures, et il faut parfois des mois pour Facebook"
En novembre 2020, pour tester de manière indépendante l'efficacité de la modération effectuée par les plateformes les plus populaires, l’ISD a chronométré la capacité des principales plateformes à suspendre des comptes terroristes après la diffusion d’un discours, très attendu par les partisans, d'un porte-parole de l’organisation État islamique.
Ce que nous avons trouvé, c'est que YouTube était capable de retirer ce contenu dans les 30 minutes qui suivent la publication. Suivait Twitter, qui mettait généralement entre 6 et 12 heures avant de le retirer. Enfin, Facebook arrive en dernière position, avec un contenu qui reste en ligne parfois des jours ou des mois, selon la rapidité avec laquelle il est signalé ou s'il l'est automatiquement.
D’après l’ISD, on estime aujourd’hui qu’une archive d’une valeur d'environ 2,1 téraoctets (environ 500 heures de vidéo en haute définition, HD) de contenus de l'organisation État islamique, en plusieurs langues, dont le français, l'allemand, l'anglais et principalement l'arabe, est facilement accessible sur le Web ouvert. Il est continuellement diffusé ou promu par les partisans du groupe en ligne.
Une modération largement en-deçà des exigences européennes
D’autres plateformes ne modèrent quasiment pas les contenus qui y circulent. L’application de messagerie chiffrée Telegram – par exemple –, qui demeure l’outil numérique préféré des groupes terroristes. La large campagne d’Europol, menée en octobre 2018 dans plusieurs pays d’Europe occidentale et en partenariat avec Telegram, n’a eu des résultats positifs qu’éphémères. "Ce qui s'est passé, c'est que les partisans de l'[organisation] État islamique et les canaux de soutien se sont déplacés vers l'application Tam Tam. Et quand les contrôles se sont calmés sur Telegram, ils sont revenus sur Telegram sans renoncer à leur position sur Tam Tam."
Si les chiffres publiés tous les trimestres par les principales plateformes démontrent une hausse de contenus proterroristes détectés depuis juillet 2022, ils restent très opaques quant au processus de modération. "Ces rapports trimestriels doivent être plus transparents, dit Moustafa Ayad. Par exemple, sont-ils signalés par les systèmes d'intelligence artificielle ou par d'autres utilisateurs ? Les modérateurs doivent également être familiarisés non seulement avec le contenu, mais avec tout un écosystème de diffusion."
Ces chiffres ne traduisent pas non plus ce que prévoit la réglementation européenne relative à la lutte contre la diffusion de contenus à caractère terroriste en ligne d’avril 2021. La "One Hour Rule", injonction phare de la réglementation, oblige les plateformes à "retirer dans l’heure qui suit la publication" tout contenu terroriste sous peine d’amende pouvant s’élever à 4 % du chiffre d’affaires. Une nouvelle législation européenne, jugée plus englobante des problématiques de modération des plateformes numériques, le Digital Services Act, est entrée en vigueur le 16 novembre dernier avec une durée d’adaptation de quatre mois accordée aux géants numériques.
Le chercheur précise : "Je ne rejetterais pas la faute sur les seules plateformes, mais celles-ci ont la responsabilité de veiller à ce que ce contenu ne survive pas ou ne prospère pas. Il faut pour cela investir dans la modération et veiller à ce que la modération soit équitable dans les différentes langues. Ce n'est pas parce que nous pouvons mieux gérer un problème en anglais que nous ne pouvons pas le gérer dans les autres langues. Ce qui est observé, ce n'est qu'une infime partie des préjudices en ligne. Nous ne parlons même pas de la haine implicite dans ces langues. Donc si nous ne pouvons pas cibler ce contenu, comment faisons-nous sur des choses comme la misogynie violente ? Ou comment faisons-nous face au harcèlement ?"