Data / IA
De la voiture « software-defined » aux « world models » : Julia et LeCun, deux trajectoires qui annoncent l’IA de 2026
Par Thierry Derouet, publié le 07 janvier 2026
Quand deux « stars » de l’IA changent de trajectoire, ce n’est pas un caprice d’ego : c’est un indicateur. Alors que les modèles fonctionnent mieux, plus rapidement et parfois en silence, l’intégration reste difficile et l’AGI s’éloigne. En 2026, la question n’est plus « qui a le plus gros modèle ? », mais « qui sait industrialiser, gouverner et faire comprendre le monde à ses machines ? ».
Le calendrier n’a pas de sens de l’humour, mais il a parfois le sens du récit. L’année 2026 s’ouvre sur deux mouvements qui, mis côte à côte, dessinent une même bascule : Luc Julia quitte Renault, et Yann LeCun quitte Meta pour lancer une structure dédiée à ce qu’il présente comme une intelligence « plus avancée » que les systèmes actuels. Ce ne sont pas deux départs « people ». Ce sont deux signaux. D’un côté, l’IA qui doit tenir dans une industrie, avec ses contraintes d’architecture, de sûreté et de cycles longs. De l’autre, l’IA qui doit comprendre davantage que des mots, et s’ancrer dans une représentation du monde.
Les faits sont publics et les mots, eux, sont nets. Luc Julia résume son départ sans drame : « Il était temps de se quitter bons amis », confie-t-il à Maddyness. Yann LeCun, de son côté, annonce sa sortie de Meta et la création de sa nouvelle structure de recherche, tout en précisant que Meta restera partenaire (Reuters).
Ce qui importe, ce n’est pas l’anecdote. C’est ce que ces bifurcations racontent de 2026 : une IA qui progresse, oui, mais une IA qui se durcit. Une IA qui délivre mieux, mais qui exige, en échange, de la méthode, des garde-fous, et parfois… un retour au réel.
2025 : plus de résultats, mais pas de passage à l’échelle
On se souvient de l’humeur de 2025 : beaucoup attendaient un « moment de vérité », une correction brutale — voire un crash — au motif que les promesses commerciales dépassaient la réalité opérationnelle. Et pourtant, les constats se sont compliqués. D’un côté, les modèles se sont améliorés « au quotidien », parfois sans tambour : meilleure précision, meilleure structuration, moins d’erreurs grossières sur des scénarios simples, et un vrai mieux sur certains usages de production.
De l’autre, l’économie de l’IA n’a pas « craqué ». Elle continue d’attirer des moyens — pas seulement via des budgets internes, mais aussi via des financements et des rachats pour aller plus vite. Le rapport AI Index 2025 de Stanford estime à 252,3 milliards de dollars les investissements des entreprises liés à l’IA en 2024 (financements, acquisitions et opérations de consolidation). Dans ce total, Stanford relève une hausse de 44,5 % des financements privés (investissements dans des acteurs non cotés) et une progression de 12,1 % des opérations de fusion-acquisition : autrement dit, le marché ne se contente plus d’expérimenter, il se structure.
La dynamique est particulièrement nette sur l’IA générative : Stanford chiffre à 33,9 milliards de dollars les financements privés en 2024 (+18,7 % sur un an) (AI Index 2025 ; rapport complet (PDF)). Et l’adoption suit : 78 % des organisations déclarent utiliser l’IA en 2024, contre 55 % un an plus tôt (AI Index 2025).
Le paradoxe, c’est que l’IA devient à la fois plus accessible et plus difficile à maîtriser. Stanford illustre la chute des coûts d’usage par un exemple frappant : le coût d’interroger un modèle atteignant un niveau comparable à certains modèles de référence a chuté d’un facteur supérieur à 280 entre fin 2022 et fin 2024 (Stanford HAI, « l’état de l’IA en 10 graphiques »).
C’est là que 2026 arrive : non pas comme la fin de l’IA, mais comme la fin d’une forme d’insouciance.
2026 : la « correction » selon les prospectivistes — du diadème au casque de chantier
Les prospectivistes ne décrivent pas 2026 comme une apocalypse. Ils parlent plutôt d’un changement de tenue : l’IA enlève la couronne, met le casque, et retourne au chantier. Forrester résume l’idée ainsi : l’IA quitte la mise en scène pour revenir au travail d’exécution, avec une pression accrue sur la création de valeur réelle, la gouvernance et la formation.
Gartner, lui, donne un chiffre qui refroidit les démonstrations trop rapides : plus de 40 % des projets d’IA capables d’agir de manière autonome seraient abandonnés d’ici fin 2027, à cause des coûts, d’une valeur métier floue, ou d’un contrôle des risques insuffisant. Reuters rapporte aussi l’estimation selon laquelle, parmi des milliers d’éditeurs se revendiquant « agents », seule une petite fraction proposerait des technologies réellement conformes à cette promesse.
Le message implicite est limpide : en 2026, l’agentique ne se joue pas au concours de slogans, mais à l’architecture, aux droits, aux données, à l’observabilité — et à la capacité de dire non.
Julia : une voiture, un cerveau, et la redondance comme règle de survie
Chez Luc Julia, le fil conducteur n’est pas l’intelligence artificielle générale. C’est l’efficacité industrielle — et une méfiance assumée envers les mots-valises. Il quitte Renault sur fond de réorganisation. Mais, surtout, il laisse derrière lui une vision : la voiture moderne comme système logiciel piloté par une architecture plus centrale.
Dans une interview au Journal de l’Automobile, Julia lâche une phrase concrète, presque mécanique : « Avant, nous avions des dizaines d’ordinateurs dans une voiture, demain nous en aurons trois ». On comprend l’idée : réduire la dispersion, concentrer la décision, maîtriser les mises à jour, éviter le patchwork. Autrement dit : une centralisation… mais avec une obsession de redondance, parce que, dans l’automobile, la panne n’est pas un bug : c’est un risque.
Pour un DSI, ce détour automobile ressemble à un miroir : quand tout le monde « branche » de l’IA partout, la question devient celle de l’architecture cible. Centraliser ce qui doit l’être. Séparer ce qui doit l’être. Et garder une obsession : savoir qui décide, avec quelles données, et avec quel droit d’agir.
LeCun : comprendre le monde, pas seulement le langage
Yann LeCun, lui, mène un autre combat : convaincre que l’empilement de textes ne suffit pas à fabriquer une intelligence « générale ». (Sources : Reuters ; Associated Press ; Le Monde).
Yann LeCun défend une idée simple : les grands modèles de langage sont impressionnants, mais insuffisants pour franchir l’étape suivante. Ce qu’il pousse, c’est la piste des modèles du monde : des architectures qui apprennent à partir de la vidéo, de l’espace, de l’action, afin de se construire une représentation plus « physique » du réel, et donc une capacité accrue d’anticipation et de planification (Source : Financial Times).
Ce que cela change, en 2026, c’est la nature même des promesses. On ne vend plus seulement « un assistant qui rédige ». On vend la capacité d’un système à comprendre un contexte, à anticiper, à planifier, et à agir sans casser la vaisselle. Or, c’est précisément là que l’industrialisation se complique : dès qu’un modèle agit, la gouvernance n’est plus une diapositive, c’est une discipline.

Luc Julia et Yann LeCun, deux trajectoires qui se croisent sans se confondre : en 2026, l’IA passe de la promesse à l’architecture — moins de magie, plus d’ingénierie.
2026 : la vérité difficile à dessiner… et l’Europe qui ajoute son propre calendrier
Dernier élément, plus silencieux mais très concret : le calendrier réglementaire. La Commission européenne rappelle que le règlement européen sur l’intelligence artificielle devient pleinement applicable le 2 août 2026, avec des échéances différenciées selon les catégories de systèmes.
La Commission précise également certaines périodes de transition : par exemple, les fournisseurs de modèles mis sur le marché avant le 2 août 2025 doivent se mettre en conformité au plus tard le 2 août 2027.
Ce calendrier ne « ralentit » pas l’IA. Il oblige à la rendre gouvernable. Et, au fond, il rejoint la bascule décrite par Forrester et Gartner : moins d’éclat, plus d’ingénierie. Moins de promesses totales, plus de périmètres tenus.
C’est peut-être cela, la ligne de crête de 2026 : l’IA progresse, les chiffres montent, les performances s’améliorent — mais l’intelligence artificielle générale recule comme horizon marketing. À la place, deux voies se distinguent, presque symbolisées par Luc Julia et Yann LeCun. D’un côté, l’IA comme cerveau industriel, concentré, redondé, mis sous contrainte. De l’autre, l’IA comme compréhension du monde, encore incomplète, mais plus honnête dans son ambition.
Et la vérité, difficile à dessiner, ressemble à une phrase simple : en 2026, on ne demandera plus à l’IA d’être magique. On lui demandera d’être fiable.
À LIRE AUSSI :
