Histoire et société

Dieu me pardonne c'est son métier

Une armée de ‘bots’ anti-russes découverte par des chercheurs australiens: une étude capitale issue de l’Université d’Adelaïde.

En liaison avec les articles précédents sur les agissements du CENTCOM en Iran, l’étude de Stanford/Graphika ou encore l’attaque de Newsguard contre Consortium News, et bien d’autres informations que nous n’avons pas publiées, on prend conscience que la manipulation digitale de l’opinion n’est pas un à-côté tactique, mais bien un élément stratégique, constant, et riche en bénéfices de la guerre de l’empire. On perçoit aussi que les tentatives russes, pour réelles qu’elles puissent être, restent bien timorées, et presque bienséantes.
Un autre point intéressant de cette étude est qu’elle montre que la campagne de désinformation ukrainienne avait anticipé sur le déclenchement des hostilités. Si on met cela en relation avec
  • l’envoi dans les semaines précédentes par les Etats-Unis (le très distingué Commandement de la Cybernétique) et les alliés occidentaux ( la bien états-uniennement nommée Cyber Rapid ReactionTask Force, s’appuyant sur les plus atlantistes : Roumanie, Pays Baltes, Pays Bas, Espagne entre autres…) d’une équipe de ‘chasse avancée’ en Ukraine
  • l’aveu par Nakalone, le directeur de la NSA et du Cyber Commandment, que son équipe a conduit des opérations offencives dans le cadre de la guerre en Ukraine

on peut en déduire que les Etats-Unis et certaines sections de l’OTAN n’attendaient que ça.

Incidemment, cela donne aussi des arguments à ceux, en Russie ou ailleurs, qui jugent que le gouvernement russe avait sous-estimé la préparation stratégique des Etats-Unis et de l’occident à une guerre qu’ils avaient bien l’intention de mener. (note et traduction de jean Luc Picker pour histoireetsociete)

Par Peter Cronau, le 3 novembre 2022 dans Declassified Australia

https://declassifiedaus.org/2022/11/03/strongmassive-anti-russian-bot-army-exposed-by-australian-researchers-strong/

Des étagères de gateways GSM confisqués par les services secrets ukrainiens, contenant des centaines de cartes SIM. Utilisant le réseau de téléphonie mobile ils créent des milliers de faux comptes robotisés pour distribuer des millions de faux tweets. (Photo : services secrets ukrainiens, SBU)

Une équipe de chercheurs de l’Université d’Adelaïde (Australie) a mis en évidence que près de 80% de tous les tweets parlant de la guerre entre la Russie et l’Ukraine diffusés dans les premières semaines de la guerre en février – mars 2022 ont été produits par des faux comptes robotisés (‘bots’) dans le cadre d’une campagne de propagande secrète. Cette campagne de propagande dirigée contre la Russie a inondé l’internet.

Les chercheurs ont étudié plus de 5 millions de tweets. 90,2% de tous les tweets (provenant de bots ou non) venaient de sites considérés comme favorables à l’Ukraine, alors que 7% seulement venaient de sites ‘pro-Russes’.

Ces universitaires ont aussi montré que ces tweets robotisés avaient été utilisés pour créer une atmosphère de peur parmi les personnes ciblées. Selon les mesures statistiques, le niveau d’anxiété des échanges en ligne a augmenté significativement.

Les résultats de l’étude ont été publiés en Août dans un article intitulé « #IStandWithPutin versus #IStandWithUkraine : l’interaction entre bots et humains dans les discussions autour de la guerre Russie/Ukraine » par l’école des sciences mathématiques de l’Université d’Adelaïde.

L’analyse des chercheurs a porté sur une base de données d’une taille sans précédent : 5.203.746 tweets utilisant des hashtags clés et envoyés après le 24 février dans les 2 premières semaines de l’invasion de l’Ukraine par la Russie, ont été inclus dans l’étude. La recherche a porté essentiellement sur les comptes en langue anglaise. 1,8 millions de comptes Twitter ayant posté au moins un tweet en anglais ont été étudiés.

La taille de l’échantillon est sans commune mesure avec les autres études récentes sur les opérations secrètes de propagande à travers les réseaux sociaux autour de la guerre en Ukraine. L’étude de Stanford/Graphika, par exemple, sur une opération occidentale de désinformation analysée par Declassified Australia en Septembre et laissée dans l’ombre par la grande presse, n’a porté que sur 300.000 tweets issus de 146 comptes Twitter (ndt : une traduction française a été publiée sur ce blog)L’étude conduite par Meta/Facebook sur un réseau de désinformation pro-Russe, qui a été, elle largement commentée dans la grande presse, a porté sur 1.600 comptes Facebook.

Si les travaux de l’équipe d’Adelaïde ont été repris par quelques sites d’information indépendants et par la chaîne russe RT, ils ont été largement ignorés dans la presse occidentale, dans une nouvelle démonstration de sa capacité à enterrer les informations qui ne rentrent pas dans le narratif officiel.

La Blitz Krieg de la désinformation.

L’équipe d’Adelaïde montre qu’il y eu une opération d’influence pro-Ukrainienne massive et organisée dès le début du conflit. Les ‘bots’ étaient responsables de 60 à 80% de tous les tweets pris en compte dans la base de donnée. Durant la première semaine de la guerre, l’activité des bots autour des hashtags pro-ukrainiens était immense. Ils ont envoyé plus de 3.5 millions de tweets utilisant le hashtag #IStandWithUkraine. Cela laisse l’impression que quelqu’un a seulement eu à pousser un bouton en position allumée le jour où la guerre a commencé. Dès le premier jour, plus de 38.000 tweets par heure utilisaient le hashtag #IStandWithUkraine.  Au troisième jour de la guerre, on en comptait 50.000 par heure.

A contrario, la base de données montre qu’il y avait une absence presque totale d’activité des bots pro-Russie dans la première semaine du conflit. Les hashtags #IStandWithPutin ou #IStandWithRussia ne dépassaient pas quelques centaines par heure.

Graphique montrant la fréquence horaire des hasthtags ‘StandWith’ utilisés pour l’analyse.

Le hashtag #IStandWithUkraine poussé essentiellement par les bots a inondé Twitter dans la première semaine suivant l’invasion de l’Ukraine par la Russie (Image : Université d’Adelaïde)

Au vu de sa longue préparation à l’invasion de l’Ukraine, les experts en cybernétique expriment leur surprise devant les réponses tardives de la Russie sur Internet et le dans le cyberspace. Un chercheur du Centre d’Etudes sur la Sécurité de l’ETH DE Zürich écrit : « les opérations cybernétiques [de la Russie] ne semblent pas avoir été préparées à l’avance et apparaissent au contraire laissées au hasard ».

Ecrasé au départ, le hashtag #IStandWithPutin en provenance essentiellement des bots a repris des couleurs environ une semaine après le début des hostilités, le 2 mars 2022. Il a enregistré plus de 10.000 tweets par heure au cours des deux jours suivants, mais est resté loin derrière l’activité pro-Ukraine. Le hashtag #IStandWithRussia, lui, n’a jamais dépassé les 4000 tweets par heure. Après deux jours d’opération, les hashtags pro-Russie avaient pratiquement disparu. Les auteurs de l’étude pensent que les comptes bots « probablement utilisés par les autorités russes’ ont été « éliminés probablement par les autorités ukrainiennes ». La réaction contre les comptes pro-Russie a été rapide. Le 5 mars, après que le hashtag #IStandWithPutin ait commencé à prendre de l’importance, Twitter a annoncé avoir interdit plus d’une centaines de comptes pour « manipulation de la plateforme et activités spam » et participation dans « un mouvement coordonné d’activité fallacieuse ». Plus tard dans le mois de mars, le service de sécurité intérieure ukrainien (SBU) a annoncé avoir fait une descente dans cinq ‘élevages de bots’ installés dans le pays. Selon leurs informations, les opérateurs des bots pro-russe avaient créé plus de 100.000 faux comptes sur les réseaux sociaux disséminant de la désinformation dans « l’intention de susciter la panique dans la population ukrainienne ».

La guerre des bots. Les forces de sécurité ukrainiennes ont découvert une ‘armée de bots’ installée dans un appartement en mars 2022. Au cours du raid, plus de 100 gateways GSM (à gauche) et 10.000 cartes sim (à droite) permettant d’animer 100.000 faux comptes robotisés ont été saisis. (Photos : SBU)

Une étude indépendante et sans filtres

L’étude de l’Université d’Adelaïde se distingue des autres découvertes récemment divulguées de façon spectaculaire. Alors que l’étude de Stanford/Graphika et celle de Meta sont le fait de chercheurs étroitement liés à l’appareil de sécurité nationale des Etats-Unis, les chercheurs d’Adelaïde sont notoirement indépendants. Cette équipe universitaire utilise des modèles mathématiques pour prédire et décrire les caractéristiques psychologiques des individus sur la base de leur empreinte numérique. A l’inverse des bases de données utilisées dans les autres études, les données analysées par l’équipe d’Adelaïde ne proviennent pas de comptes qui ont été retirés par Meta ou Twitter pour avoir enfreint leurs directives.

Joshua Watt, un des principaux auteurs de l’étude fait actuellement sa maîtrise dans le département de statistique et de mathématique appliquée de l’Ecole de Sciences Mathématiques de l’Université d’Adelaïde. Il déclare à Declassified Australia que la base de plus de 5 millions de tweets a été obtenue grâce à une licence universitaire permettant d’accéder directement à l’API (Application Programming Interface, un outil de communication informatique) de Tweeter afin d’en extraire et d’en analyser les données. Les faux comptes robotisés n’avaient pas été détectés ni retirés par Tweeter au moment de l’extraction, quoique certains aient pu depuis être éliminés par le nettoyage de Tweeter en mars (ndt : voir étude de Stanford/Graphika). Watt indique à Declassified Australia que la plupart des comptes robotisés responsables des millions de tweets analysés dans la base sont probablement encore en activité.

Declassified Australia a approché Tweeter pour leur demander quelles actions avaient été prises par rapport aux faux comptes identifiés dans l’étude d’Adelaïde, mais à l’heure où nous écrivons cet article, nous n’avons toujours pas reçu de réponse.

Un outil essentiel dans la guerre de l’information

Cette nouvelle étude vient renforcer les craintes que les réseaux sociaux soient devenus ce que les chercheurs appellent « un outil essentiel dans la guerre d’information qui a joué un rôle clé dans le cadre de l’invasion de l’Ukraine par la Russie ».

Les chercheurs ont fait leur possible pour rester neutres dans leur description des activités des faux comptes Tweeter, même s’ils ont découvert que la grande majorité -plus de 90%- portaient des messages anti-russes. Ils écrivent que « les deux côtés du conflit Ukrainien utilisent l’information en ligne pour influencer la dynamique géopolitique et emporter l’adhésion de l’opinion publique ». Ils montrent que les deux côtés prennent part à la guerre informationnelle avec leurs buts et leur style propres. « Les réseaux sociaux russes produisent des narratifs centrés autour de leurs raisons pour la guerre alors que les réseaux ukrainiens cherchent à susciter et maintenir le support des populations des pays occidentaux, tout en glorifiant leurs efforts militaires et en tentant de déprécier ceux de la Russie ».

Bien que l’étude ait porté prioritairement sur les bots Twitter, elle s’est aussi intéressée aux comptes non robotisés. Elle a mis en évidence des flux importants à partir des comtes pro-russes non robotisés, alors que les flux à partir des comptes pro-ukrainien non robotisés étaient relativement insignifiants.

Le côté pro-ukrainien s’est montré non seulement plus actif, mais aussi plus expert dans l’utilisation des bots. Ils utilisaient en particulier plus de ‘bots astroturf’ (ndt : voir l’explication du terme ici) que les pro-russes. Les bots astroturfs sont des robots hyperactifs qui suivent en continu de nombreux comptes afin d’en augmenter artificiellement le nombre de ‘followers’.

Impact des réseaux sociaux sur l’anxiété

Il est important de noter que les chercheurs de l’Université d’Adelaïde se sont aussi intéressés à l’influence psychologique qu’exerçaient les faux comptes robotisés à travers les conversations en ligne dans les premières semaines de la guerre. Ces conversations au sein d’audiences ciblées peuvent à terme se développer en positions de support ou d’opposition envers les gouvernements ou leurs politiques, mais elles peuvent également influencer les décisions immédiates des individus qui la compose. 

Nuages de mots renvoyant à ‘anxiété’ à gauche et à ‘mouvement’ à droite établissant la fréquence des mots dans certaines catégories linguistiques utilisés dans les tweets de l’étude (Image : Université d’Adelaïde)

L’étude montre que les tweets issus des bots ont joué un rôle primordial dans « l’augmentations des conversations reflétant de l’anxiété » dans les populations ciblées. Les comptes robotisés ont augmenté « l’utilisation de mots de la catégorie ‘anxiété’ qui contient de nombreux mots renvoyant à la peur et à l’inquiétude tels que ‘honte’, ‘terroristes’, ‘menace’ et ‘panique’ ». En associant les messages exprimant de l’anxiété avec ceux organisés autour du ‘mouvement’ et de l’emplacement géographique, les chercheurs montrent que les « comptes bots ont influencé un accroissement des conversations autour du mouvement/fuite/partir ou rester ». Les chercheurs pensent que cet effet a pu jouer un rôle dans la décision d’Ukrainiens de quitter leurs domiciles même chez ceux vivant à l’écart des zones de conflit».

Cette étude démontre que des faux comptes robotisés sur les réseaux sociaux peuvent manipuler l’opinion publique en modifiant le discours parfois de façon très précise. Les résultats renforcent les soupçons que les campagnes de désinformation de masse au travers des réseaux sociaux peuvent avoir une influence inquiétante et entraîner des effets délétères sur des populations civiles innocentes.

L’origine des faux comptes Twitter

Les auteurs de l’étude écrivent que la désinformation anti-russe massive observée sur Tweeter vient en grande partie de bots « probablement [organisés] par les autorités ukrainiennes ». S’ils n’ont pas pu donner plus de certitude sur l’origine des 5 millions de tweets, ils montrent néanmoins que certains bots « soutiennent des campagnes spécifiques à certains pays [non mentionnés] en partageant leur contenu à des heures liées aux fuseaux horaires leur correspondant ». Les données montrent que le pic d’activité d’un échantillon de bot pro-ukrainien correspond au créneau 18-21 h. aux Etats-Unis. On peut aussi faire des déductions sur l’origine et la cible des messages en regardant les langages utilisés. Plus de 3.5 millions de tweets (67%) étaient rédigés en anglais, alors que moins de 2% étaient en russe ou en ukrainien.

En mai 2022, le directeur de la NSA (National Security Agency, Agence de Sécurité Nationale) et chef du Commandement de la Cybernétique US, le Général Paul Nakasone, révélait que son départemnt avait conduit des opérations d’information offensives en soutien à l’Ukraine : « Nous avons mis en place une large gamme d’opérations : offensives, défensives et informationnelles ». Selon lui, les Etats-Unis onxt conduit ces opérations dans le but de démanteler la propagande russe. Il prétend qu’il s’agissait d’opérations légales, à la demande du département de la défense et avec une supervision civile. Il avance que les Etats-Unis cherchent toujours à dire la vérité quand ils conduisent ce type d’opérations, à l’inverse de la Russie. Le Commandement de la Cybernétique avait déployé des équipes ‘en position avancée’ (ndt : en anglais : hunt forward teams)dès décembre pour aider l’les défenses cybernétiques ukrainiennes à protéger leurs réseaux contre des menaces actives en prévision de l’invasion. L’équipe de réponse cybernétique rapide créée récemment par l’Union Européenne a envoyé 12 experts rejoindre l’équipe du Commandement de la Cybernétique US pour débusquer les menaces actives au sein des réseaux ukrainiens et renforcer la défense cybernétique du pays.

Les USA ont investi 40 millions US$ depuis 2017 pour aider l’Ukraine à protéger son secteur de la technologie de l’information. D’après Wendy Sherman, sous-secrétaire d’état états-unienne, ces investissements ont aidé les ukrainiens à « maintenir leur réseau internet et assurer la circulation de l’information malgré la brutale invasion russe »

La guerre et ses mensonges directement dans nos poches

A l’ère de l’internet, la guerre et les conflits armés ne sont plus les mêmes. Certains commentateurs avancent que l’invasion de l’Ukraine par la Russie marque « une nouvelle ère digitale du conflit militaire, politique et armé » caractérisée par les manipulations « de généraux d’ordinateurs et d’armées de bots ». « Dans toutes les dimensions du conflit, les technologies digitales jouent un rôle clé -instruments d’attaques cybernétiques, de contestation digitale, d’accélérateur des flots d’information et de désinformation ». « La propagande a toujours fait partie de la guerre, depuis le début de l’humanité. Mais jusqu’ici, elle n’avait jamais dépassé aussi largement les zones de conflit ni ciblé un si large éventail d’audiences. »

Joshua Watt le résume ainsi : « dans le passé, les guerres se déroulaient principalement au niveau physique. Les principales forces en jeu étaient l’armée, l’aviation, la marine militaire. Aujourd’hui, par contre, les réseaux sociaux ont créé un environnement totalement différent où l’opinion publique peut être manipulée à large échelle.

Comme le synthétise une autre commentatrice : « CNN amenait autrefois la guerre dans nos salles à manger. Aujourd’hui, Tik Tok, YouTube et Twitter la mettent directement dans nos poches ».

Nous emmenons tous avec nous, partout, un puissant instrument d’information – et aussi certainement de désinformation. Nous sommes en permanence la cible de campagnes d’influence organisées par des ‘mauvais acteurs’ dont le métier est de nous tromper.

Print Friendly, PDF & Email

Vues : 372

Suite de l'article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

La modération des commentaires est activée. Votre commentaire peut prendre un certain temps avant d’apparaître.