Les deux grandes croyances de nos élites, l’intelligence artificielle et le changement climatique apocalyptique, ont pris un coup en 2025. Toutes deux sont hautement spéculatives, nécessitent toutes deux beaucoup de foi et ont toutes deux été considérées comme les raisons d’une réorganisation radicale de la société. Alors que le soutien populaire en faveur de Net Zero s’est lentement évaporé, le déclin de l’IA a été plus dramatique.
Au début de l’année dernière, Peter Kyle, alors ministre britannique de la Technologie, incarnait le sentiment politique sophistiqué à l’égard de cette nouvelle technologie dite miracle. “C'est une opportunité unique dans une vie”, a-t-il déclaré en février. « Si nous faisons cela, nous fermerons la porte à une décennie de croissance lente et de productivité stagnante. » Quelques mois plus tard, il partageait l’opinion selon laquelle « d’ici la fin de la législature, nous utiliserons l’intelligence artificielle générale », c’est-à-dire une IA dotée de capacités cognitives au niveau humain. C'est un gouvernement de vrais croyants.
« Agency AI » était le mot à la mode à l’époque. Cela signifie que les grands modèles de langage (LLM) peuvent agir de manière autonome et ainsi faire partie de la machinerie commerciale. Mais à l’automne, les dirigeants d’OpenAI – sans doute la plus grande entreprise d’IA au monde – ont commencé à demander un plan de sauvetage du gouvernement. En décembre, Microsoft, qui avait intégré son Copilot AI dans chaque recoin de chaque produit, a abaissé ses objectifs de vente « parce que presque personne » n'avait utilisé son nouveau logiciel. Et le miracle de l’automatisation ? Jusqu'à fin 2025 Le journal Wall Street Des employés ont signalé qu'un distributeur automatique de leur salle de rédaction fonctionnant grâce à l'IA générative distribuait des PlayStation gratuites et commandait des armes et des poissons vivants. L’un de ses journalistes a écrit que cela « nous a appris des leçons sur l’avenir des agents d’IA ».
Les défauts de l’IA n’étaient pas toujours humoristiques. Ici, au Royaume-Uni, la police des West Midlands et les tribunaux écossais l'ont utilisé avec des résultats désastreux. En novembre, la police a interdit aux supporters israéliens majoritairement juifs du Maccabi Tel Aviv d'assister à un match de Ligue des Champions contre Aston Villa. Le rapport de police justifiant l'interdiction a été rédigé à l'aide de l'IA. Il faisait référence à des allégations de violence de supporters lors de précédents matchs du Maccabi qui n'avaient jamais été joués. En décembre, un juge du tribunal du travail écossais a été soupçonné d'avoir utilisé l'IA dans sa décision dans l'affaire de harcèlement de l'infirmière Sandie Peggie contre NHS Fife. Le verdict contenait plusieurs citations fictives qui étaient très probablement « hallucinées » par l’IA.
La liste des échecs est longue. Un guide d’éthique de l’IA publié par l’un des plus grands éditeurs universitaires au monde s’est révélé rempli de citations fabriquées de toutes pièces. Deloitte a soumis un rapport au gouvernement australien contenant un texte généré par l'IA et truffé d'erreurs générées par l'IA, obligeant l'entreprise à accepter un remboursement de 440 000 dollars australiens. Puis il a répété l’opération au Canada – ou du moins a essayé de le faire. Avec la sortie de ChatGPT-5 en août, les doutes largement répandus se sont confirmés : ChatGPT-5 était beaucoup plus cher que son prédécesseur, mais a été largement considéré comme décevant. Il était toujours incapable de faire des calculs de base, de résoudre des énigmes logiques ou de lire des horloges analogiques.
À la fin du printemps, l’ambiance a changé. Auparavant, une opinion de haut niveau avait déclaré que l’IA était à la fois transformatrice et inévitable, et que tout écart par rapport à ce point de vue dans la politique publique ou la stratégie d’entreprise avait des conséquences négatives sur la carrière.
Mais les entreprises ont ensuite commencé à rendre compte des projets pilotes qu’elles avaient menés au cours des dernières années. Et les mauvais résultats l’ont montré : trois projets d’IA sur quatre ont échoué, selon une enquête IBM menée auprès de 2 000 entreprises. Selon une enquête de l’Université Carnegie Mellon, les « agents » d’IA comme Gemini de Google ont échoué dans 65 à 70 % des tâches de bureau. Erick Brethenoux, responsable de la recherche sur l'IA au sein du cabinet de conseil international Gartner, a conclu que « l'IA d'aujourd'hui ne fait pas son travail et devrait nous laisser tranquilles ». Même les films générés par l’IA, sans doute la réalisation la plus impressionnante, sont problématiques et semblent cyniques, artificiels et dégoûtants. En novembre, Coca-Cola a présenté ses excuses pour une publicité créée à l'aide de l'IA générative après des jours de réactions négatives intenses.
En tant qu'humains, nous avons tendance à être anthropomorphes. L'IA avait l'air un peu magique. Les gens voulaient croire à l’illusion que cette technologie était « intelligente ». Ce n’est donc pas ce qu’on nous avait promis – et ce n’est certainement pas une avancée technologique comparable à celle d’Internet, encore moins du feu ou de l’électricité, comme aiment le prétendre certains de ses partisans.
L'un des plus gros problèmes des LLM est la façon dont ils sont structurés. Les entreprises américaines d’IA s’appuient sur davantage de puissance de calcul pour améliorer la qualité, plutôt que sur une technologie intelligente. Le premier modèle linguistique chinois à grande échelle, DeepSeek, coûte une fraction du coût de ses concurrents américains. Les modèles ultérieurs ont montré des gains d’optimisation encore plus impressionnants obtenus grâce à des décisions techniques simples et judicieuses. À bien des égards, il s’agit d’une répétition de ce qui s’est produit dans l’industrie automobile dans les années 1970 et 1980 : les véhicules américains énergivores, en l’occurrence des sociétés comme OpenAI, sont concurrencés par des modèles asiatiques plus agiles et plus pratiques.
Fin 2025, il est devenu clair à quel point l’économie mondiale était devenue vulnérable à l’engouement pour l’IA. L'économiste de Harvard, Jason Furman, a souligné que la croissance du PIB américain au premier semestre 2025 était presque entièrement due à la bulle de l'IA. Pour que cette croissance se poursuive, il faudrait d’énormes augmentations de la productivité des entreprises, ce qui n’est tout simplement pas le cas.
Nous savons désormais également que la bulle est encore gonflée par un réseau incestueux de transactions circulaires. “Beaucoup de ces transactions sont des boucles financières plutôt que de véritables indicateurs de croissance”, a noté Ayal Steinberg d'IBM en novembre. Cela a incité l'investisseur Michael Burry, dont les recherches sur le marché hypothécaire ont été dramatisées Le grand court métrageparier lourdement contre le marché. Burry n'est pas le seul : en novembre, le milliardaire de capital-risque Peter Thiel et Masayoshi Son de Softbank se sont départis de leurs actions dans le fabricant de puces Nvidia, dont le matériel est utilisé pour faire fonctionner les LLM.
Tout est louche. Avec 20 % de la richesse américaine immobilisée dans la bulle, les conséquences risquent d’être spectaculaires. Préparez-vous pour 2026 – l’année où la bulle de l’IA éclatera presque certainement.
Andrew Orlowski est chroniqueur hebdomadaire au télégraphe. Visitez son site Web ici. Suivez-le sur X : @AndrewOrlowski.
#sera #lannée #où #bulle #lIA #éclatera