A peine l’année 2024 achevée, les prospectivistes annoncent que la menace informationnelle constituera, en 2025 encore, un risque potentiellement ravageur pour nos sociétés ; une analyse que les agissements d’acteurs hostiles semblent avoir déjà confirmés.
Le World Economic Forum, dans son Global Risks Report 2025, publié annuellement, place « la désinformation et la mésinformation » comme premier risque mondial à court terme pour la deuxième année de suite. Cette étude sonde plus de 900 experts du monde académique, des secteurs publics et privés, des organisations internationales et de la société civile, afin d’évaluer les risques les plus susceptibles d’entraîner un effet négatif sur les populations, la croissance ou les ressources de la planète.
L’an dernier, la menace informationnelle avait déjà pris la tête du classement. C’était avant tout en raison de l’échéance électorale massive dû à un alignement extraordinaire des calendriers électoraux au niveau mondial (Global Risks Report 2024). Cette année, si le risque est maintenu à la première position, c’est qu’il transcende les élections, devenant une menace constante et protéiforme.
.png?sfvrsn=87f424db_3)
Les classements des risques du Global Risk Report 2025
Les facteurs d’aggravation de la menace informationnelle
Le rapport du World Economic Forum évoque deux causes majeures de l’extension de la menace provoquée par la désinformation et la mésinformation : l’avènement de l’IA générative et la capacité de la désinformation à constituer un facteur aggravant dans tous les domaines.
Un risque informationnel décuplé par l’IA générative
L'IA générative aggrave le risque de désinformation en permettant la création rapide et à grande échelle de contenus artificiels, toujours plus difficiles à distinguer de contenus authentiques. Des outils de génération de contenus multimédias sont aujourd’hui accessibles à tous, sans garde- fous interdisant la production d’images potentiellement dangereuses. C’est notamment le cas de Grok 2 - l’IA générative de xAI d’Elon Musk - permettant à ses utilisateurs de produire des deepfakes hyperréalistes. En ligne avec l’idéologie libertarienne d’Elon Musk et au nom de la liberté d’expression, aucune limite n’est posée sur le type de contenus que peut produire Grok, quitte à produire des images parfaites pour une campagne de désinformation.
Le World Economic Forum souligne également la vulnérabilité des IA génératives, victimes de manipulations les conduisant à diffuser elles-mêmes de la désinformation. C’est ce que le rapport appelle une « structured query language injection attack » (Global Risks Report 2025, p.35), une compromission des corpus de données servant à entraîner les LLM. Dans une expérience conduite par Newsguard, les chatbots des 10 plus grandes entreprises d’IA répétaient des narratifs issus de campagnes informationnelles russes en réponse à 32% des prompts les interrogeant sur le sujet. Le risque est ainsi avéré : les IA génératives sont vulnérables, pouvant devenir des super-diffuseurs de désinformation.
Un facteur aggravant de nombreux risques
Si la désinformation prend la première place du classement, c’est qu’elle se diffuse dans de nombreuses sphères, aggravant des problématiques déjà ancrées.
Cette tendance est illustrée dans la carte des interconnections des risques du rapport, montrant que la menace informationnelle peut contribuer aux conflits intra- et internationaux, à l’effritement de la cohésion sociale ou encore à l’e-réputation des entreprises.
Carte des interconnections entre différents risques, Global Risks Report 2025
Cette stratégie est adoptée par le Bakou Initiative Groupe (BIG), qui après ses ingérences en Nouvelle-Calédonie, entame son année 2025 à la Réunion, en organisant des conférences en Azerbaïdjan prônant l’indépendance de l’île, un message relayé copieusement sur ses réseaux sociaux. Par ailleurs, l’affaire des influenceurs algériens appelant à la haine et au meurtre en France sur TikTok illustre également cette tendance : la menace informationnelle a aujourd'hui vocation à faire basculer la violence dans le monde physique.
Autre illustration de l’ubiquité du risque de désinformation et de mésinformation, cet éditorial virulent de The Lancet, revue de référence sur les questions de santé, qui dénonce le risque porté par la désinformation et qui critique le comportement de la Big Tech aux Etats-Unis, qui « ouvre les vannes pour du contenu dangereux ».
Les réseaux sociaux sont ainsi devenus le vecteur privilégié de tous les acteurs malintentionnés, et les manipulations de l’information leur mode d’action fétiche.
Les perspectives à long-terme du risque
Si la désinformation et la mésinformation représentent le premier risque sur les deux prochaines années, il est relégué à la cinquième place pour les risques à long-terme. Cette rétrogradation est à nuancer, puisque seuls les risques climatiques devancent le risque informationnel. Il est ainsi difficile de mesurer si la menace informationnelle s’effacera, ou si la situation climatique deviendra d’autant plus catastrophique.
Or, une donnée non prise en compte par le rapport (l’étude ayant été conduite jusqu’à novembre 2024), et qui pourrait s’avérer particulièrement préjudiciable, est le démantèlement par l’administration Trump des balbutiements de cadre réglementaire des espaces numériques et de toute tentative d’endiguer la circulation de la désinformation. Les géants du numérique étatsunien ont rapidement compris l’opportunité que constitue l’arrivée de Trump 2.0 à la Maison Blanche, et ont été des appuis essentiels à sa victoire, en la personne (entre autres) d’Elon Musk. Derrière cette alliance, deux tendances semblent se distinguer : une convergence idéologique sur la liberté d’expression et le rôle de l’Etat, ainsi qu’une convergence d’intérêt, puisque Big Tech et Donald Trump bénéficient du chaos informationnel.
Une convergence idéologique : « moins de gouvernement, plus de liberté »
Que ce soit à l’échelle de leurs plateformes ou des Etats-Unis, Donald Trump et les acteurs de la Big-Tech sont adeptes du « small governement » : en d’autres termes, on intervient le moins possible, et on laisse le marché faire son affaire. Derrière l’annonce de Mark Zuckerberg de mettre fin au « fact-checking » sur META, l’on retrouve bien entendu l’étendard de la liberté d’expression, mais également une opportunité de baisser les coûts. Une tendance confirmée puisque quelques jours plus tard, META annonce se séparer de 5% de ses effectifs au niveau mondial.
Une fois de plus, la synthèse entre Big Tech et Etat fédéral s’illustre en la personne d’Elon Musk, nommé au « Department of Government Efficiency » (DOGE), avec pour objectif de couper drastiquement les dépenses gouvernementales. Des coupes budgétaires, qui selon Maud Quessard, directrice du domaine transatlantique de l’Institut de Recherche Stratégique de l’Ecole Militaire (IRSEM), pourraient s’apparenter à des purges des éléments non-libertariens.
Une convergence d’intérêts : quand le chaos informationnel est bon pour le business
Donald Trump est un super diffuseur de fausses informations, surfant sur des allégations tantôt à l’encontre de ses opposants politiques, tantôt à l’encontre de communautés spécifiques pour convaincre son auditoire. Dans ce chaos informationnel, Donald Trump excelle.
En parallèle, des ouvrages tels que « Toxic Data » de David Chavalarias démontrent que la propagation de contenu polarisant ou négatif fait éminemment partie du business model de ces plateformes. C’est la notion de « captologie », ou l’économie de l’attention, où les contenus négatifs ou scandaleux engagent les utilisateurs, augmentant mécaniquement leur temps d’écran et ainsi les opportunités de vendre de la publicité. Aujourd’hui, ce sont les IA de recommandations de contenu qui permettent ces phénomènes addictifs, avec des effets nocifs autant pour les démocraties que pour la santé mentale et physique des utilisateurs, comme l’expliquent les chercheurs Lê Nguyên Hoang et Jean-Lou Fourquet dans « La Dictature des Algorithmes ».
Ainsi, que ce soit la mouvance MAGA de Donald Trump ou les acteurs de la Big Tech, tous souhaitent qu’aucune entrave soit mise sur la diffusion de contenus, même lorsqu’ils sont faux ou haineux. Cette double convergence constitue une menace redoutable aux tentatives de réguler le risque informationnel, puisque la première puissance économique et militaire s’est alliée aux premières puissances du numérique.
Or, pour endiguer le risque, une réglementation est nécessaire. Le Digital Services Act (DSA) constitue la première tentative ambitieuse en la matière. La preuve, le règlement européen est pris pour cible. Le vice-président JD Vance, a ainsi déclaré qu’une interdiction de X en Europe, sanction permise par le DSA, pourrait être motif d’un retrait étatsunien de l’OTAN. La résistance farouche à toute réglementation pourrait ainsi conduire à une pérennisation, voire une aggravation, du risque informationnel.
Une fois le constat morose établi, quels motifs d’espoir ?
En classant la désinformation comme premier risque mondial pour la deuxième année consécutive, le World Economic Forum contribue à et témoigne de la prise de conscience croissante de ce risque. Le réveil précède toujours l’action.
En septembre 2024, une soixantaine de personnalités, d’associations, d’entreprises, françaises et internationales signaient une tribune dans Le Monde au nom du pluralisme algorithmique. Depuis, le réseau social Bluesky prend de la vitesse, constituant une véritable alternative, un réseau social sur lequel l’utilisateur à la main. La communauté scientifique française se mobilise pour favoriser cette transition. L’initiative HelloQuitteX, portée par le CNRS, permet ainsi aux utilisateurs de migrer avec leurs abonnés vers de nouvelles plateformes, facilitant leur départ du réseau d’Elon Musk.
En parallèle, l’urgence de la situation pousse les acteurs politiques, notamment français, à demander une application ferme du DSA, quitte à interdire certains réseaux refusant d’appliquer la réglementation en vigueur.