Sur les réseaux sociaux, la propagande terroriste s'amplifie en se jouant de la censure

D’après des chercheurs spécialisés dans l’analyse des activités extrémistes en ligne, l’activité des comptes proches des organisations terroristes a augmenté de 69 % sur le réseau social Twitter depuis que le multimilliardaire Elon Musk a pris la tête de celui-ci. Faux comptes, messages codés, textes "brisés" : ces utilisateurs disposent d’une large palette de techniques pour tenter de contourner les censures, qu’ils déploient également sur les autres plateformes comme YouTube ou Facebook.

Alors qu'on constate une hausse de l'activité des comptes proches des groupes terroristes sur les réseaux sociaux, ces comptes s'approprient de nouvelles techniques leur permettant d'éviter la modération.
Alors qu'on constate une hausse de l'activité des comptes proches des groupes terroristes sur les réseaux sociaux, ces comptes s'approprient de nouvelles techniques leur permettant d'éviter la modération. © Observateurs
Publicité

En mars dernier, Elon Musk se proclamait "absolutiste de la liberté d’expression". Et, sur Twitter, il sondait ses abonnés pour savoir s’ils trouvaient que celle-ci était bridée sur le réseau social (ils étaient 70 % à le penser).

Capture d’écran d’un sondage publié le 25 mars 2022 sur Twitter par Elon Musk, un mois avant qu’il ne propose d'acheter le réseau social pour 44 milliards de dollars (42 milliards d’euros).
Capture d’écran d’un sondage publié le 25 mars 2022 sur Twitter par Elon Musk, un mois avant qu’il ne propose d'acheter le réseau social pour 44 milliards de dollars (42 milliards d’euros). © Observateurs

C’est peu dire que la prise de contrôle de Twitter par le milliardaire, le 27 octobre, a ravivé les craintes de voir un retour en force des fausses informations et des discours haineux, jusque-là modérés tant bien que mal. Les constats faits par des chercheurs de l'Institut pour le dialogue stratégique (ISD) ne rassureront pas les inquiets : depuis début novembre, les contenus relayant la propagande des groupes terroristes, notamment l’organisation État islamique, ont explosé.

Capture d’écran d’une publication Twitter où le chercheur spécialisé dans l’extrémisme en ligne Moustafa Ayad dit avoir constaté, dans la période entre le 27 octobre et le 6 novembre 2022, une hausse de 69% de l’activité pro-terroriste sur le réseau social Twitter.
Capture d’écran d’une publication Twitter où le chercheur spécialisé dans l’extrémisme en ligne Moustafa Ayad dit avoir constaté, dans la période entre le 27 octobre et le 6 novembre 2022, une hausse de 69% de l’activité pro-terroriste sur le réseau social Twitter. © Observateurs

Mais si, sur Twitter, cette nouvelle donne s’avère concomitante au changement de propriétaire, l'accroissement de l’activité des comptes proches des organisations terroristes, notamment de l'organisation État islamique, se remarque aussi sur Facebook ou YouTube. "Nous avons constaté une augmentation de la capacité des soutiens des groupes terroristes à s'adapter au contenu et aux techniques de modération de différents réseaux sociaux", fait valoir à la rédaction des Observateurs Moustafa Ayad, chercheur et directeur exécutif de l’Institut pour le dialogue stratégique, qui analyse l’activité des groupes extrémistes sur le web.

Capture d’écran d’une publication Facebook en arabe datant du 5 novembre 2022 (toujours accessible au 24 novembre 2022) qui annonce la diffusion d’une nouvelle vidéo de propagande de l’organisation État islamique. Le lien de la vidéo est partagé dans les premiers commentaires.
Capture d’écran d’une publication Facebook en arabe datant du 5 novembre 2022 (toujours accessible au 24 novembre 2022) qui annonce la diffusion d’une nouvelle vidéo de propagande de l’organisation État islamique. Le lien de la vidéo est partagé dans les premiers commentaires. © Observateurs
Capture d’écran d’une publication Twitter en persan partagée le 12 novembre 2022 (toujours accessible au 24 novembre 2022) par un faux média. Elle comporte une affiche rédigée en arabe résumant les "aboutissements" des opérations militaires menées par les jihadistes en Europe, en Asie et au Moyen-Orient.
Capture d’écran d’une publication Twitter en persan partagée le 12 novembre 2022 (toujours accessible au 24 novembre 2022) par un faux média. Elle comporte une affiche rédigée en arabe résumant les "aboutissements" des opérations militaires menées par les jihadistes en Europe, en Asie et au Moyen-Orient. © Observateurs

Dissimulation des marques au mépris de l’intelligence artificielle

Tous les contenus, visuels, textuels et codés sont concernés. Pour résister à la modération, il s’agit surtout de "dissimuler les symboles devenus synonymes de l'[organisation] État islamique, et ce n'est pas nécessairement son drapeau, en les recouvrant d'émojis ou en utilisant des effets secondaires pour dessiner ou gribouiller le contenu afin de le rendre plus difficile à identifier par l'intelligence artificielle", soutien le chercheur.

Capture d’écran d’une vidéo promotionnelle de l’organisation État islamique, publiée sur Facebook le 3 août 2022 (toujours accessible au 23 novembre 2022). On peut y voir des points blancs – notamment sur le logo du groupe (en haut à droite) – que ces comptes mettent pour éviter que la vidéo soit détectée, signalée ou supprimée par l’intelligence artificielle.
Capture d’écran d’une vidéo promotionnelle de l’organisation État islamique, publiée sur Facebook le 3 août 2022 (toujours accessible au 23 novembre 2022). On peut y voir des points blancs – notamment sur le logo du groupe (en haut à droite) – que ces comptes mettent pour éviter que la vidéo soit détectée, signalée ou supprimée par l’intelligence artificielle. © Observateurs

L’usage des émojis, prisé par les partisans non officiels des groupes terroristes, sert également à diffuser la propagande de façon à complexifier la tâche de signalement confiée à l’intelligence artificielle, voire la rendre inutile. Certains émojis ont même été "codifiés" par ces comptes extrémistes pour véhiculer certains messages ou informations à leurs abonnés, sinon détectables en texte.

43 "émojis codifiés" partagés et utilisés par les comptes proches des groupes terroristes pour véhiculer certains messages et informations. Ils couvrent une large palette de vocabulaire et termes allant des courants de l’islam aux types d’armes et d’attaques menées.
43 "émojis codifiés" partagés et utilisés par les comptes proches des groupes terroristes pour véhiculer certains messages et informations. Ils couvrent une large palette de vocabulaire et termes allant des courants de l’islam aux types d’armes et d’attaques menées. © Institut pour le dialogue stratégique (ISD)

Le "texte brisé", le casse-tête de toutes les plateformes 

La désinformation de ces comptes se décline parfois sur les réseaux sociaux dans sa forme la plus élémentaire. Des comptes utilisant des noms visant à se faire passer pour des médias diffusent de l'information destinée à glorifier les actes et opérations des jihadistes. Ils pullulent sur les réseaux sociaux : "Breaking News", "Iraq News" ou "ISW News"... sont par exemple des appellations génériques que se donnent des pages et comptes diffusant la propagande terroriste. D’autres reprennent carrément le logo de vrais médias pour tenter de faire passer leur message.

Capture d’écran d’une vidéo de propagande terroriste, publiée sur le réseau social Facebook, qui arbore le logo de France 24. La vidéo débute avec la phrase "Au nom de Dieu clément et miséricordieux" écrite en arabe.
Capture d’écran d’une vidéo de propagande terroriste, publiée sur le réseau social Facebook, qui arbore le logo de France 24. La vidéo débute avec la phrase "Au nom de Dieu clément et miséricordieux" écrite en arabe. © Institut pour le dialogue stratégique (ISD)

Plus insaisissable encore, le "texte brisé", de l’anglais "broken text", demeure le casse-tête par excellence pour toutes les plateformes, y compris les plus populaires d'entre elles. Cette façon d’écrire parvient même à échapper à la modération manuelle effectuée par des êtres humains. "Ils le font en mélangeant l’anglais et l’arabe. Ils le font également dans d'autres langues, où les mots ou les commentaires sensibles sont brisés par la ponctuation ou d'autres symboles. Ainsi, un mot comme "jihad" sera séparé par un point, une barre oblique ou des symboles."

Capture d’écran d’une publication Twitter qui démontre ce à quoi ressemble l’écriture en texte brisé. En arabe, en anglais et avec des chiffres, ce type de contenu ne nécessite que très peu d’efforts pour être rédigé.
Capture d’écran d’une publication Twitter qui démontre ce à quoi ressemble l’écriture en texte brisé. En arabe, en anglais et avec des chiffres, ce type de contenu ne nécessite que très peu d’efforts pour être rédigé. © Observateurs

Meta, l’entreprise détentrice de Facebook, affirme avoir appliqué des mesures diverses de sanction à plus de 16,7 millions de contenus relevant du terrorisme entre juin et septembre 2022. Un chiffre sensiblement plus important que celui du trimestre précédent (13,5 millions de contenus). Du côté de YouTube et durant la même période, on affirme avoir supprimé 67 516 vidéos faisant "promotion de la violence et de l'extrémisme", un chiffre en légère baisse par rapport au trimestre précédent.

"Adopteurs précoces" de nouvelles plateformes

La diffusion du terrorisme, et plus particulièrement le soutien en ligne au terrorisme, est une affaire en constante évolution. Pour contourner la censure, artificielle ou effectuée manuellement par des modérateurs, les comptes associés aux groupes terroristes utilisent des techniques qui se sont affinées au fil du temps.

Considérés comme étant des "adopteurs précoces", les soutiens des groupes terroristes, notamment ceux de l'organisation État islamique, sont parmi les premiers à tester et à se saisir du potentiel de nouvelles plateformes et techniques pour véhiculer leur propagande.

Capture d’écran d’une vidéo de 20 minutes dans laquelle des scènes d’une violence extrême défilent l’une après l’autre. Elle a été publiée le 5 novembre dernier sans qu’elle ait été signalée ou supprimée (au 23 novembre 2022).
Capture d’écran d’une vidéo de 20 minutes dans laquelle des scènes d’une violence extrême défilent l’une après l’autre. Elle a été publiée le 5 novembre dernier sans qu’elle ait été signalée ou supprimée (au 23 novembre 2022). © Observateurs

La survie du contenu violent en ligne est un terrain d'expérimentation pour les comptes orbitant dans l'univers terroriste. De nouvelles techniques visant à promouvoir ce type de contenu et à le diffuser auprès d'un public de plus en plus large sont testées régulièrement par ces acteurs. "Une stratégie d'essai et d'erreur", selon le chercheur Mousatafa Ayad, qui souligne que "ce qui réussit finit par devenir la norme quant à la façon dont ces comptes privilégient de partager le contenu".

"YouTube peut retirer un contenu en 30 minutes, Twitter entre 6 et 12 heures, et il faut parfois des mois pour Facebook"

En novembre 2020, pour tester de manière indépendante l'efficacité de la modération effectuée par les plateformes les plus populaires, l’ISD a chronométré la capacité des principales plateformes à suspendre des comptes terroristes après la diffusion d’un discours, très attendu par les partisans, d'un porte-parole de l’organisation État islamique.

Ce que nous avons trouvé, c'est que YouTube était capable de retirer ce contenu dans les 30 minutes qui suivent la publication. Suivait Twitter, qui mettait généralement entre 6 et 12 heures avant de le retirer. Enfin, Facebook arrive en dernière position, avec un contenu qui reste en ligne parfois des jours ou des mois, selon la rapidité avec laquelle il est signalé ou s'il l'est automatiquement.

D’après l’ISD, on estime aujourd’hui qu’une archive d’une valeur d'environ 2,1 téraoctets (environ 500 heures de vidéo en haute définition, HD) de contenus de l'organisation État islamique, en plusieurs langues, dont le français, l'allemand, l'anglais et principalement l'arabe, est facilement accessible sur le Web ouvert. Il est continuellement diffusé ou promu par les partisans du groupe en ligne.

Une modération largement en-deçà des exigences européennes

D’autres plateformes ne modèrent quasiment pas les contenus qui y circulent. L’application de messagerie chiffrée Telegram – par exemple –, qui demeure l’outil numérique préféré des groupes terroristes. La large campagne d’Europol, menée en octobre 2018 dans plusieurs pays d’Europe occidentale et en partenariat avec Telegram, n’a eu des résultats positifs qu’éphémères. "Ce qui s'est passé, c'est que les partisans de l'[organisation] État islamique et les canaux de soutien se sont déplacés vers l'application Tam Tam. Et quand les contrôles se sont calmés sur Telegram, ils sont revenus sur Telegram sans renoncer à leur position sur Tam Tam."

Si les chiffres publiés tous les trimestres par les principales plateformes démontrent une hausse de contenus proterroristes détectés depuis juillet 2022, ils restent très opaques quant au processus de modération. "Ces rapports trimestriels doivent être plus transparents, dit Moustafa Ayad. Par exemple, sont-ils signalés par les systèmes d'intelligence artificielle ou par d'autres utilisateurs ? Les modérateurs doivent également être familiarisés non seulement avec le contenu, mais avec tout un écosystème de diffusion."

Ces chiffres ne traduisent pas non plus ce que prévoit la réglementation européenne relative à la lutte contre la diffusion de contenus à caractère terroriste en ligne d’avril 2021. La "One Hour Rule", injonction phare de la réglementation, oblige les plateformes à "retirer dans l’heure qui suit la publication" tout contenu terroriste sous peine d’amende pouvant s’élever à 4 % du chiffre d’affaires. Une nouvelle législation européenne, jugée plus englobante des problématiques de modération des plateformes numériques, le Digital Services Act, est entrée en vigueur le 16 novembre dernier avec une durée d’adaptation de quatre mois accordée aux géants numériques.

Le chercheur précise : "Je ne rejetterais pas la faute sur les seules plateformes, mais celles-ci ont la responsabilité de veiller à ce que ce contenu ne survive pas ou ne prospère pas. Il faut pour cela investir dans la modération et veiller à ce que la modération soit équitable dans les différentes langues. Ce n'est pas parce que nous pouvons mieux gérer un problème en anglais que nous ne pouvons pas le gérer dans les autres langues. Ce qui est observé, ce n'est qu'une infime partie des préjudices en ligne. Nous ne parlons même pas de la haine implicite dans ces langues. Donc si nous ne pouvons pas cibler ce contenu, comment faisons-nous sur des choses comme la misogynie violente ? Ou comment faisons-nous face au harcèlement ?"