Data / IA

Et si personne ne savait vraiment, où va en 2026, l’intelligence artificielle ?

Par Thierry Derouet, publié le 05 novembre 2025

Les milliards s’accumulent, les promesses se répètent, mais le cap se brouille. Entre surenchère technologique et doutes économiques, 2026 s’annonce comme une année charnière : celle où l’IA devra prouver qu’elle peut passer du discours à la valeur, sans s’épuiser dans son propre vertige.

On ne compte plus les prophètes de l’intelligence artificielle. Chacun promet une rupture, une révolution, un monde transformé. Et pourtant, à mesure que les GPU chauffent et que les datacenters s’étendent, le doute s’installe : sait-on encore pourquoi et pour qui tout cela tourne ?

Selon des estimations de grandes entreprises technologiques et reprises par le Wall Street Journal, les investissements des géants de la tech dans l’IA en 2025 pourraient atteindre près de 400 milliards de dollars.

Les DSI parlent d’efficacité, les marchés d’euphorie, les régulateurs de risque systémique. Pendant que l’industrie cherche la vitesse, la science, elle, cherche la cohérence.

Les chercheurs construisent des agents capables de cliquer, de naviguer, d’agir ; d’autres imaginent des IA qui « voient » le monde et le comprennent avant d’agir ; d’autres encore créent des langages pour les faire dialoguer entre elles. Toutes ces pistes convergent vers une IA plus utile, mais le chemin qui mène à la rentabilité industrielle reste sinueux. 2026 ne dira peut-être pas si l’intelligence artificielle va changer le monde, mais si le monde saura encore lui donner un sens.

Après l’ivresse, le réel

Les superlatifs ont tenu lieu de stratégie. Les « révolutions » se sont succédé au rythme des conférences de presse, chaque trimestre apportant son lot de modèles plus « intelligents », plus « autonomes », plus « généraux ». Mais l’économie de l’IA a un défaut fondamental : elle avance plus vite que son utilité. Pour la première fois, la planète code plus qu’elle ne réfléchit à ce qu’elle fait du code.

Ces investissements masquent pourtant une réalité plus prosaïque : la rentabilité reste évasive, la productivité stagne, et les entreprises découvrent que l’intelligence artificielle n’est pas une solution clé en main, mais une transformation longue, exigeante, parfois frustrante. « L’innovation avance plus vite que l’adoption », reconnaissait récemment Marc Benioff (Salesforce). C’est peut-être le résumé le plus honnête du moment que nous vivons.

Les DSI, eux, le savent bien : la question n’est plus « peut-on le faire ? », mais « pourquoi le ferait-on ? »

Le coût de calcul, la complexité d’intégration, la pénurie énergétique, la conformité européenne — tout cela redessine un paysage où la vitesse n’est plus synonyme de progrès. L’IA entre donc dans une autre temporalité : celle de la mesure, de la valeur, et, peut-être, de la maturité.

2026, l’année du tri

Chaque révolution technologique finit par rencontrer sa gravité. Pour l’intelligence artificielle, cette gravité s’appelle régulation, énergie, et retour sur investissement. Trois forces que rien n’arrête, pas même la ferveur californienne. Et 2026 sera, à bien des égards, l’année où le tri commencera — entre le mythe et la mesure, entre le rêve et le bilan comptable.

Le premier tri sera réglementaire. Le 2 août 2026, l’AI Act européen entrera pleinement en application. Il imposera aux systèmes dits « à haut risque » un ensemble d’obligations : documentation des données, supervision humaine, transparence algorithmique, suivi post-déploiement. Pour les DSI, cela signifie moins de liberté expérimentale, mais plus de responsabilités. Certains projets ralentiront, d’autres migreront hors d’Europe, d’autres enfin deviendront des références de conformité — un avantage concurrentiel inattendu. L’innovation se fera plus lente, mais plus solide.

Le deuxième tri sera économique. Car à mesure que l’investissement devient massif, la patience des marchés s’amenuise. Les entreprises voudront désormais des preuves plutôt que des promesses. On passera du discours sur l’« IA générative » à la comptabilité du coût par décision utile, du taux de reprise humaine, du rendement énergétique par requête. Ce seront les indicateurs de l’après-bulle. La rentabilité remplacera la rhétorique comme étalon de crédibilité.

Le troisième tri, plus discret, sera culturel. Dans les entreprises comme dans les laboratoires, la fascination cède la place à la curation. On ne vise plus à tout automatiser, mais à cibler ce qui mérite de l’être. On n’entraîne plus un modèle pour tout comprendre, mais pour mieux agir sur un domaine restreint. C’est le passage de l’utopie généraliste à l’intelligence située — celle qui s’intègre, s’ajuste, se mesure.

En un mot, 2026 ne sera ni la fin de l’intelligence artificielle, ni son triomphe. Ce sera le moment du discernement, là où la technologie apprend enfin à vivre dans le réel — avec ses contraintes, ses lenteurs et ses justifications. Ce que certains verront comme un ralentissement n’est peut-être que le signe le plus éclatant de sa maturité.

Et si la vraie intelligence consistait à douter ?

Le doute est une vertu rare dans l’économie numérique. Il ralentit, il fissure la certitude, il interroge la promesse. Et pourtant, c’est peut-être la compétence la plus précieuse à enseigner — aux ingénieurs comme aux machines.

À mesure que le tumulte s’apaise, le paysage technique devient plus lisible : entre la promesse d’une « intelligence générale » et l’efficacité d’agents réellement utiles, le réalisme technologique s’impose. C’est précisément le sens des travaux portés par Yann LeCun et d’autres chercheurs : au-delà de la simple prédiction du prochain mot, il s’agit d’apprendre aux systèmes à modéliser et prédire l’évolution du monde (world models). Chez Meta/FAIR, V-JEPA 2 démontre des progrès en compréhension du mouvement et en anticipation d’actions, et une variante montre du planning robotique zero-shot à partir de vidéos. Chez DeepMind, Genie 3 génère des mondes 3D interactifs en temps réel à partir d’un simple texte — des environnements où l’on peut tester des comportements et des interactions sur plusieurs minutes. Ces approches restent expérimentales, mais elles marquent le passage d’une IA qui parle à des systèmes qui prévoient et agissent

Mais l’incertitude demeure. Chez OpenAI, le projet Operator teste un agent capable d’utiliser un ordinateur comme un humain : ouvrir un navigateur, remplir un formulaire, vérifier un résultat.

En Chine, au GAIR Lab de l’université Shanghai Jiao Tong, les chercheurs ont développé PC Agent-E : entraîné sur 312 démonstrations humaines puis auto-amélioré, il affiche une amélioration relative de 141 % sur le benchmark WindowsAgentArena-V2 et se généralise à OSWorld. Des résultats convaincants en research preview, sans garantie d’industrialisation rapide. (Source : He, Jin, Liu, « Efficient Agent Training for Computer Use », arXiv 2505.13909, mai 2025.)

Ces agents agissent, apprennent, mais ne savent pas encore pourquoi. Même dans la Silicon Valley, la prudence s’invite.

Sam Altman admet lui-même que « les prochaines années seront surtout celles de la mise en cohérence, pas du saut qualitatif ». Quant à Demis Hassabis (DeepMind), il reconnaît que « le vrai défi n’est plus de calculer, mais d’enseigner la causalité aux modèles ». Autrement dit, de passer de la corrélation à la compréhension.

Le doute, ici, devient une méthode scientifique. Et 2026 s’annonce comme son année de légitimation. L’intelligence artificielle n’entre donc pas dans une ère de crise, mais dans une ère de lucidité instrumentale. Elle cesse d’être un récit de conquête pour devenir une grammaire du doute. C’est là, paradoxalement, que commence son intelligence. Peut-être que la plus grande avancée en 2026 ne sera pas un modèle plus rapide ni un GPU plus dense, mais plutôt la prise de conscience collective que nous ne savons pas encore ce que nous créons. C’est précisément cela qui marque notre maturité.

Parce qu’au fond, le progrès n’est pas dans la certitude, mais dans la capacité à rester perplexe sans renoncer à comprendre. Et dans ce doute assumé, il y a déjà un peu d’intelligence humaine.


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights