En 1987, l’économiste Robert Solow, prix Nobel, formulait ce qui allait devenir l’un des paradoxes les plus célèbres de l’ère numérique : « On voit des ordinateurs partout, sauf dans les statistiques de productivité. » Près de quarante ans plus tard, l’histoire se répète. L’IA générative est partout, mais ses effets concrets sur la productivité restent invisibles dans les données macroéconomiques. Ce nouveau paradoxe de Solow n’est pourtant que la partie émergée d’un problème beaucoup plus profond : la convergence inédite de trois menaces systémiques qui, chacune prise isolément, suffit à remettre en question les fondements mêmes de nos modèles économiques.
Le paradoxe de Solow, version 2026
Les chiffres sont sans appel. Selon une étude du NBER publiée en février 2026, portant sur près de 6 000 dirigeants d’entreprises aux États-Unis, au Royaume-Uni, en Allemagne et en Australie, 89 % d’entre eux ne constatent aucun impact de l’IA sur leur productivité au cours des trois dernières années. Pourtant, 69 % des entreprises interrogées utilisent déjà l’IA, et les investissements mondiaux dans les data centers ont atteint 500 milliards de dollars en 2024 selon l’ Agence internationale de l’énergie (AIE).
Ce décalage entre promesse et réalité n’est pas nouveau. La précédente grande vague technologique, ce qu’on appelait la « transformation digitale » dans les années 2017, a elle aussi produit son lot de désillusions : selon les analyses convergentes de McKinsey et Gartner, 70 à 80 % des projets de transformation digitale n’ont pas atteint leurs objectifs. Et si l’IA générative suivait la même trajectoire ?
Mais réduire le débat à la seule question du retour sur investissement de l’IA serait une erreur. Ce que nous vivons aujourd’hui, c’est la conjonction inédite de trois « bugs systémiques », trois failles structurelles dont chacune, prise isolément, suffit à faire dérailler l’ensemble de nos modèles économiques.
Bug n°1 : l’IA efface les barrières à l’entrée de l’industrie IT
Les marchés financiers ont déjà intégré une hypothèse radicale : l’IA générative rend le développement logiciel si accessible que les barrières à l’entrée des entreprises de services numériques (ESN) et des éditeurs s’effondrent. Conséquence directe : un recul significatif des valorisations boursières de l’ensemble du secteur.
Parallèlement, les directions achats exercent déjà une pression concrète : elles exigent des baisses de prix au nom de gains de productivité liés à l’IA, alors même que ces gains restent largement à démontrer. Les prestataires, sous contrainte commerciale, acceptent des engagements de plus en plus ambitieux. Qu’adviendra-t-il lorsqu’il faudra délivrer ?
En réalité, les barrières à l’entrée restent substantielles. Générer du code est une chose ; intégrer des systèmes complexes, gérer la dette technique de décennies d’empilement applicatif, garantir la fiabilité de systèmes critiques en est une autre. Mais la perception des marchés, elle, a déjà tranché. Et cette perception a des effets bien réels.
Bug n°2 : le renversement des alliances brise la supply chain numérique
Pendant des décennies, l’industrie IT européenne a accepté un niveau élevé de dépendance aux grands éditeurs et fournisseurs d’infrastructure américains. Les chiffres sont éloquents : selon Synergy Research Group, les fournisseurs de cloud européens ne détiennent que 15 % de leur propre marché en 2025, tandis qu’Amazon, Microsoft et Google en contrôlent à eux trois plus de 70 %. Un rapport du Parlement européen publié fin 2025 estime le déficit commercial numérique de l’UE à plus de 100 milliards d’euros par an, avec environ 264 milliards d’euros annuels (1,5 % du PIB européen) qui transitent vers des éditeurs cloud et logiciels étrangers.
Cette dépendance était le prix implicite d’un confort technologique. Les bouleversements géopolitiques récents la transforment en vulnérabilité opérationnelle. L’illustration la plus frappante est venue de la Cour pénale internationale : à la suite de sanctions américaines, le procureur en chef s’est retrouvé déconnecté de son compte email hébergé par un éditeur américain. La CPI a annoncé dans la foulée sa migration vers une suite souveraine européenne.
Le marché européen réagit : selon Gartner, les investissements européens en cloud souverain devraient passer de 6,9 milliards de dollars en 2025 à 23,1 milliards en 2027. Mais au-delà du cloud, chaque entreprise doit désormais se poser une question précise : dans mon système d’information, de quoi suis-je dépendant, et quel niveau de risque suis-je prêt à accepter ?
Bug n°3 : la sous-estimation du risque climatique, le bug premier
Ce troisième bug est, en réalité, celui dont les deux précédents découlent. Il est aussi le plus systématiquement sous-estimé dans les modèles économiques actuels.
Les travaux du réseau NGFS, relayés par la Banque centrale européenne, sont explicites : une série d’événements climatiques extrêmes pourrait provoquer une contraction du PIB de la zone euro pouvant atteindre 5 % à l’horizon 2030 — un choc d’une ampleur comparable à la crise financière de 2008. Et ce scénario ne tient pas compte des effets en cascade liés aux perturbations des chaînes d’approvisionnement mondiales.
Or, que fait notre industrie face à cette réalité ? Elle investit massivement dans une IA à grande échelle dont l’empreinte énergétique est vertigineuse. Selon l’ AIE, la consommation électrique mondiale des data centers pourrait doubler pour atteindre 945 TWh d’ici 2030: l’équivalent de la consommation annuelle du Japon. Selon le Shift Project, l’empreinte carbone du numérique représente déjà 3 à 4 % des émissions mondiales de gaz à effet de serre, avec une croissance de 6 % par an en moyenne.
L’IA à l’échelle telle qu’elle est imaginée aujourd’hui (fondée sur des LLM toujours plus massifs et des data centers toujours plus nombreux) n’est pas soutenable dans une trajectoire compatible avec un réchauffement inférieur à 2 °C. Tout comme il n’existe pas de trajectoire viable pour l’aviation sans sobriété, il n’existe pas de trajectoire viable pour l’IA sans sobriété numérique.
Trois investissements pour un modèle soutenable
Face à ce triple constat, la tentation du déni est forte. Mais la conjonction de ces trois bugs dessine aussi, en creux, un plan d’investissement cohérent pour les acteurs de l’IT qui choisiront de l’affronter.
Investir dans l’IA du juste besoin
Plutôt que de poursuivre la course aux LLM toujours plus volumineux, l’enjeu est d’investir dans des modèles d’IA ciblés, adaptés aux besoins réels des entreprises et consommant significativement moins de ressources. L’IA comme outil de gestion de la connaissance a un potentiel considérable, à condition de concentrer les efforts là où la valeur ajoutée est démontrable, et non de déployer la technologie par défaut. La recherche sur les modèles frugaux capables de fonctionner sur des infrastructures légères constitue dès lors une nécessité stratégique.
Passer de consommateur à contributeur de l’open source
L’open source partagé et de qualité constitue le meilleur vecteur d’indépendance face aux dépendances critiques. Les initiatives se multiplient : en France, La Suite, développée par la DINUM, propose une alternative souveraine aux grands environnements collaboratifs propriétaires pour l’administration. En Allemagne, openDesk, porté par le Centre fédéral pour la souveraineté numérique (ZenDiS), est déjà déployé au sein de la Bundeswehr et du ministère fédéral de la Santé. Le Land de Schleswig-Holstein économise déjà 15 millions d’euros par an après avoir migré 80 % de ses postes vers LibreOffice. À l’échelle européenne, l’Allemagne, la France, l’Italie et les Pays-Bas ont créé en 2025 un consortium (EDIC) pour les communs numériques, tandis que l’initiative OpenBuro, lancée au FOSDEM 2026, travaille à l’interopérabilité entre ces outils. Pour les ESN, passer d’un rôle de consommateur passif d’open source à un rôle de contributeur actif est à la fois un acte de souveraineté et un investissement dans leur propre résilience.
Passer de l’engagement de moyens à l’engagement de résultat
C’est peut-être le changement le plus profond. Il s’agit d’accompagner les clients vers un système d’information du juste besoin, en se positionnant sur la valeur métier réelle. Travailler en engagement de résultat (outcome-based) plutôt qu’en vente de jours-homme suppose d’accepter une forme de décroissance du périmètre technologique. Mais c’est aussi ce qui permet de réduire le run, premier poste de coût chez les clients, et d’aligner les intérêts du prestataire avec ceux du client.
Souveraineté et soutenabilité : même combat
La bonne nouvelle, c’est que les planètes sont alignées. La souveraineté numérique et la soutenabilité environnementale convergent vers les mêmes réponses : des systèmes plus légers, plus maîtrisés, moins dépendants. Un système d’information sobre est par définition un système plus souverain, moins exposé aux aléas géopolitiques, et moins coûteux en run pour les clients.
Depuis des décennies, notre industrie a été obsédée par le comment : comment déployer telle technologie, comment intégrer tel outil, comment mettre de l’IA partout. La conjonction des trois bugs nous oblige à revenir à une question plus fondamentale : pourquoi. Pourquoi ce système d’information ? Pour quel besoin métier réel ? Avec quelle empreinte acceptable ?
Le chemin n’est pas aisé. Mais c’est le seul à arpenter si l’on veut aller vers un modèle économique qui ne repose ni sur le déni climatique, ni sur la fuite en avant technologique, ni sur une dépendance stratégique que les événements récents ont rendue intenable. Les entreprises qui s'engagent les premières dans cette voie ne feront pas seulement preuve de responsabilité : elles définissent déjà les règles du jeu pour les décennies à venir.