Ces organisations s’appuient sur des réseaux de faux comptes, des bots et des sites web apparemment légitimes pour manipuler l’opinion publique et influencer des événements d’envergure mondiale, comme les élections politiques.
Où elles se trouvent et qui les contrôle
Les principales web farms ont été identifiées en Russie, où elles opèrent sous le contrôle direct d’organismes gouvernementaux comme le FSB (Service fédéral de sécurité) et d'organisations telles que l’Internet Research Agency, basée à Saint-Pétersbourg.
D’autres pays, comme l’Iran et la Chine, ont également été liés à de telles activités de désinformation, souvent via des réseaux affiliés ou des groupes parallèles.
---
Leur mode de fonctionnement
Ces structures tirent parti de l’anonymat et de la facilité de création de comptes sur les réseaux sociaux pour diffuser de fausses informations ou des faits trompeurs.
Elles utilisent des techniques de plus en plus sophistiquées grâce aux progrès de l’intelligence artificielle, qui permet de générer rapidement et de manière crédible articles, images et vidéos trompeuses.
En plus des réseaux sociaux, elles créent des sites web qui simulent des sources d’information fiables, renforçant ainsi la crédibilité apparente des fake news.
---
Cibles principales
Les principaux objectifs des web farms sont :
- Les élections politiques (notamment aux États-Unis, mais aussi en Europe et en Israël)
- Les enjeux géopolitiques comme le conflit en Ukraine ou la perception de l’OTAN
- Les personnalités publiques influentes (politiques, journalistes, entrepreneurs) et leurs abonnés
- L’opinion publique générale, en exploitant les préjugés et la tendance à partager des contenus non vérifiés
L’objectif final est de manipuler le débat public, de déstabiliser les systèmes démocratiques et de favoriser des intérêts politiques ou stratégiques des États qui contrôlent ces web farms.
---
Les plateformes de prédilection
Les web farms utilisent une combinaison de canaux digitaux pour maximiser la diffusion des fake news, créant ainsi un « effet cascade » qui rend difficile le traçage et la suppression des informations fausses :
- Telegram : point de départ des campagnes grâce à la faible modération et la possibilité de créer des groupes et canaux anonymes.
- X (ex-Twitter) : diffusion virale à travers les retweets et la création facile de faux comptes. Les fake news y ont 70 % de chances supplémentaires d’être partagées par rapport aux informations vraies.
- Facebook : large diffusion via des pages et groupes dédiés.
- YouTube : vidéos virales créées pour propager des fake news et des théories du complot (en particulier dans les domaines médicaux, scientifiques et politiques).
- TikTok : plateforme émergente pour toucher les plus jeunes grâce à la viralité des vidéos courtes et à la difficulté de modération.
- Sites web générés par IA : des milliers de sites peu fiables qui se font passer pour des sources légitimes.
- Autres plateformes : Instagram, Truth Social, forums en ligne et plateformes chinoises comme Weibo et Tencent, utilisés pour des campagnes ciblées ou pour contourner la censure.
Financement des web farms
Le financement des web farms résulte d’une combinaison de ressources étatiques (notamment dans les régimes autoritaires comme la Russie), d’entreprises privées liées aux gouvernements, et de mécanismes de monétisation offerts par les grandes plateformes numériques mondiales.
Principaux acteurs :
- Internet Research Agency (IRA) : fondée et financée par Ievgueni Prigojine (oligarque proche de Poutine, ex-leader de la milice Wagner, décédé dans un « accident » d’avion le 23 août 2023), avec un budget mensuel d’au moins 1,25 million de dollars lors des élections américaines de 2016 (et probablement autant pour celles de 2024), financés via la holding Concord Management and Consulting.
- Concord Management and Consulting : société clé dans la gestion et le financement de l’IRA et des autres troll farms russes, jouant le rôle d’intermédiaire entre les financements publics et les opérations de désinformation.
- Organismes étatiques et services de renseignement : les stratégies et campagnes sont souvent approuvées et supervisées par des hauts responsables de l’administration présidentielle russe et des services secrets.
- Agences de marketing et opérateurs privés : certaines campagnes sont confiées à des sociétés de marketing ou à des troll farms apparemment indépendantes, souvent en Afrique et en Asie, mais coordonnées par des gouvernements ou des groupes de pouvoir.
- Big Tech et publicité programmatique : des plateformes occidentales comme Facebook et Google, via la publicité programmatique, financent indirectement des sites de désinformation et des web farms, en permettant la monétisation des fake news.
---
Russie vs Iran : deux modèles de désinformation
Les campagnes russes et iraniennes de désinformation partagent l’objectif de miner la confiance dans les institutions démocratiques occidentales, mais elles se distinguent par leurs stratégies, techniques, cibles et récits privilégiés.
Comment lutter contre les fake news et la désinformation
Pour limiter les dégâts provoqués par la désinformation, il est nécessaire d’adopter une approche intégrée impliquant citoyens, institutions, entreprises, plateformes numériques et organismes de vérification. Les stratégies efficaces incluent :
1. Éducation et culture médiatique
- Formations critiques à l’école et dans la société pour développer la pensée critique, la reconnaissance des sources fiables et la compréhension des techniques de manipulation en ligne.
- Campagnes de sensibilisation pour apprendre à repérer les fake news et adopter les bons réflexes.
2. Vérification des sources et fact-checking
- Utilisation d’outils et d’organisations indépendantes pour vérifier les informations avant de les partager.
- Renforcer la collaboration entre plateformes et vérificateurs pour signaler rapidement les contenus trompeurs.
3. Réglementation et responsabilité des plateformes
- Mise en place de lois anti-désinformation, avec des sanctions et des obligations pour les plateformes hébergeant du contenu faux.
- Application de codes de bonne conduite, transparence, suppression rapide des contenus faux, et outils pour signaler la désinformation.
4. Technologies avancées et intelligence artificielle
- Utilisation de l’IA pour détecter en temps réel les contenus suspects, deepfakes et réseaux de faux comptes, puis signaler les risques aux experts.
- Intégration d’outils de vérification automatique dans les processus des entreprises et des médias.
5. Responsabilisation des utilisateurs
- Fournir aux utilisateurs des outils simples pour signaler contenus trompeurs et accéder à des sources fiables.
- Encourager à ne pas partager sans vérifier, à adopter une attitude responsable et à consulter plusieurs sources.
6. Coopération internationale et transparence
- Création de task forces et d’observatoires internationaux (comme EDMO dans l’UE) pour surveiller, échanger des données et stratégies, et mettre à jour les contre-mesures.
- Offrir aux chercheurs un accès aux données des plateformes pour étudier et combattre efficacement la désinformation.
---
Lutter contre la désinformation exige une réponse coordonnée, combinant éducation, technologie, régulation, collaboration entre acteurs publics et privés, et responsabilisation individuelle.
C’est la seule façon de limiter l’impact des fake news et de protéger la santé du débat public et des institutions démocratiques.
Share this post