Alors que les intelligences artificielles génératives (IAG) s’immiscent toujours plus dans notre quotidien, NewsGuard et le American Sunlight Project nous alertaient en mars dernier d’une nouvelle menace : le LLM Grooming. Des réseaux tels que celui de Pravda contaminent les modèles d'intelligence artificielle non plus via des questions biaisées, mais via des millions d'articles web falsifiés. Le but ? Inonder les données d'entraînement avec des récits mensongers, jusqu'à ce que les IA les répètent.
Et ça marche : selon NewsGuard, les principaux modèles reprennent la propagande de Pravda dans 33 % des cas. Cet article aura non pas pour vocation de revenir sur les rouages de cette nouvelle forme d’attaque informationnelle, mais d’alerter sur le risque d’une généralisation de ces pratiques par de nouveaux acteurs, tant étatiques et privés, et de faire le tour des pistes de solutions qui existent pour y faire face.
Vers une généralisation du LLM Grooming ?
Et si la Russie était, encore une fois, l’instigateur d’une nouvelle forme de manipulation informationnelle qui allait se démocratiser ?
Une étude de Tadaweb et de Paul Charon semble indiquer que certaines manœuvres chinoises pourraient être destinées aux web crawlers des sociétés d’IA plutôt que des êtres humains, tant le contenu produit semblait de piètre qualité. Si les acteurs étatiques se sont déjà approprié cette méthode, le basculement dans une pratique systématique du LLM Grooming serait sa reprise par le secteur privé.
Comme l’expliquait déjà Victor Chomel dans le podcast Signal sur Bruit, en rentrant dans une ère où les chatbots d’IA deviennent une porte d’entrée majeur pour s’informer, le référencement devient un enjeu majeur. On entre dans l’ère du Generative Engine Optimization (GEO), le SEO – l’optimisation de l’indexation d’une page sur un moteur de recherche – pour les IA Génératives. Un article du Washington Post pose cette même question, et fait état d’une offre commerciale naissante de sociétés de marketing digital, proposant des services permettant de faire remonter ses résultats dans les prompts.
Dans un contexte où les chatbots d’IA ne citent encore que marginalement leurs sources, il est légitime de s’inquiéter du manque d’esprit critique applicable aux résultats générés. Or, ces mêmes résultats sont déjà manipulés par des acteurs malveillants et commerciaux, étatiques et privés. Encore une fois, les premières victimes sont l’information fiable et les citoyens.
Face à ce nouveau défi informationnel, quelles sont les solutions concrètes qui existent ?
Garbage in, garbage out, où la nécessité de filtrer avant d’entraîner
Les datasets sont aujourd’hui compromis par cette masse d’articles, au moins 3,6 millions publiés par le réseau Pravda en 2024. Pour générer une telle quantité de contenu, ces réseaux ont eux-mêmes recours à de l’IA générative.
Ainsi, pour créer un chatbot exempt de ces données compromises, il faut identifier le contenu généré par IA véhiculant ces narratifs pernicieux. Pour ce faire, plusieurs moyens existent. VIGINUM publiait ainsi une étude proposant une méthodologie permettant d’identifier le contenu « Copy-pasta », un ensemble de techniques consistant à dupliquer du contenu, souvent avec des modifications mineures telles que l’ajout de hashtags, d’emojis ou le changement d’un seul mot. Détecter ce contenu pourrait ainsi servir de base à un filtrage, permettant aux LLMs d’être entraînés sur du contenu authentique.
Cette pratique devrait d’autant plus s’aligner avec les intérêts des géants de la tech, puisque des études pointent vers le fait que les modèles d’IA pourraient s’effondrer lorsqu’entraînés de façon répétée sur des données synthétiques.
Les limites de l’autorégulation ?
Or, les géants du numérique qui produisent ces modèles semblent peu réceptifs à ces alertes. OpenAI a ainsi récemment cessé d’évaluer ses modèles d’IA avant leur mise sur le marché face au risque d’ingérences électorales et politiques. Comme le souligne Thibaut Bruttin, directeur général de RSF : « Les institutions doivent se poser en garant de la régulation démocratique des activités technologiques qui vont bouleverser l'avenir du journalisme », et non pas déléguer cette responsabilité aux acteurs mêmes qui contaminent l'écosystème informationnel.
Ainsi, si les sociétés refusent le pré-filtrage et une autorégulation, il faudrait imposer une couche de supervision supplémentaire. Un futur chantier pourrait ainsi être la création de LLM gardiens : des modèles qui surveillent la cohérence et la provenance des informations utilisées par d'autres IA.
Vers un cadre contraignant et une éducation aux médias spécialisés sur les LLMs
En attendant que des solutions technologiques émergent, et pour mieux les intégrer, les institutions doivent réguler les IA génératives quant au risque informationnel, et les citoyens doivent s’armer pour y résister.