Les Dessous de la Tech

Eco

IA : derrière l’emballement, la question de la valeur

Par La rédaction, publié le 10 avril 2026

L’IA attire des capitaux records et alimente les promesses les plus larges. Mais derrière l’emballement, une question demeure : crée-t-elle déjà assez de valeur pour justifier l’ampleur des investissements ? C’est le fil de cet épisode des Dessous de la Tech, avec Jean Hastings, Senior Associate chez Supernova Invest, et Guillaume Grallet, rédacteur en chef du service Sciences et Tech du Point.

L’intelligence artificielle est entrée dans une phase où les montants donnent presque le vertige. Les financements s’envolent, les capitalisations boursières suivent, les promesses s’élargissent. À mesure que l’IA s’installe dans le débat économique, une interrogation revient pourtant avec une régularité de métronome : assiste-t-on à une vraie bascule industrielle, ou à une séquence spéculative de plus dans l’histoire de la tech ?

Le sujet mérite mieux que les slogans. Car l’IA combine plusieurs dynamiques à la fois : une accélération technologique réelle, une concentration industrielle brutale, une inflation des récits, et une création de valeur encore inégalement démontrée selon les usages. Autrement dit, le débat ne porte pas seulement sur la performance des modèles, mais sur l’économie politique de toute la chaîne.

Quand les capitaux vont plus vite que les preuves

L’histoire de la tech montre qu’aucune grande rupture ne se déploie dans le calme. Le rail, l’électricité, Internet, le cloud : chaque cycle a connu son excès d’enthousiasme, ses paris surdimensionnés, ses déceptions, puis son tri. L’IA s’inscrit dans cette lignée, mais avec une singularité : la vitesse à laquelle elle absorbe les capitaux.

Cette accélération n’est pas imaginaire. Nvidia reste portée par une capitalisation boursière hors norme, alimentée par son rôle central dans l’économie du calcul. OpenAI, de son côté, a changé d’échelle en quelques mois, au point de rendre rapidement obsolètes les repères financiers utilisés encore récemment dans le débat public.

Mais c’est précisément là que le doute s’installe. Car une partie du marché valorise déjà moins des résultats démontrés que l’anticipation d’un futur jugé inévitable. Ce qui se finance, dans bien des cas, ce n’est pas seulement un produit, ni même un usage installé. C’est une position supposée dans l’architecture économique de demain.

Le phénomène n’a rien d’anormal dans un cycle technologique. Il devient plus fragile lorsque les montants engagés précèdent très largement la preuve de la rentabilité. La question n’est alors plus de savoir si l’IA transforme les choses. Elle est de savoir à quelle vitesse cette transformation se convertira en revenus durables, en marges, en productivité mesurable et en positions défendables.

Une valeur encore inégalement démontrée

Sur le terrain des entreprises, le débat se déplace vite. Il ne s’agit plus vraiment de savoir si l’IA est capable de produire du texte, du code, des résumés ou des assistants convaincants. Elle le fait déjà. Le vrai sujet est ailleurs : dans la profondeur du gain.

Dans bien des organisations, l’IA améliore le confort de travail, accélère certaines micro-tâches, réduit le temps passé sur des opérations répétitives, fluidifie un support, aide à documenter ou à rechercher. Ce n’est pas négligeable. Mais ce n’est pas encore, dans tous les cas, une révolution de compte d’exploitation.

C’est ici que le débat devient intéressant pour les DSI, les directions métiers et les investisseurs. Une technologie peut être spectaculaire sans être immédiatement créatrice de valeur à l’échelle. Elle peut être massivement adoptée dans les discours avant de produire des effets nets dans les processus. Elle peut aussi déplacer les coûts plus qu’elle ne les supprime, notamment lorsque l’infrastructure, les licences, l’intégration et la gouvernance viennent alourdir l’équation.

Autrement dit, l’IA peut transformer les façons de travailler sans avoir encore démontré, partout, sa capacité à transformer les modèles économiques. Le risque, dans cette phase, est de confondre intensité narrative et maturité industrielle.

Une chaîne de valeur déjà verrouillée

Le paradoxe de l’IA est qu’elle se présente volontiers comme un facteur de redistribution, alors qu’elle renforce pour l’instant les positions les plus établies. Les fournisseurs de GPU, les hyperscalers, les grandes plateformes logicielles et les acteurs capables d’absorber l’intensité capitalistique de ce cycle concentrent une part majeure de la valeur.

La concurrence se joue certes sur la qualité des modèles, mais pas seulement. Elle se joue aussi sur l’accès au calcul, à l’infrastructure, aux données, à la distribution et aux usages. C’est ce qui explique qu’une startup brillante puisse émerger vite sans pour autant sortir de la dépendance aux grands opérateurs de la pile.

Dans ce paysage, de nouveaux entrants apparaissent, parfois avec une force symbolique considérable. En Europe, Mistral incarne cette volonté de ne pas laisser l’IA devenir un marché intégralement structuré ailleurs. Mais le sujet n’est pas simplement de faire émerger un champion. Il est de construire un écosystème capable de durer face à des groupes américains disposant déjà des canaux de diffusion, des clients, de la puissance de calcul et de la profondeur financière.

Il faut d’ailleurs éviter les confusions commodes. Perplexity, souvent citée dans les conversations sur les nouveaux venus de l’IA, n’est pas un acteur européen mais américain. Mélanger ces trajectoires n’aide pas à poser correctement la question du rapport de force.

L’Europe face au vrai rapport de force

Le débat européen est souvent mal posé. Il n’oppose pas simplement des modèles locaux à des modèles importés, ni la souveraineté pure à une dépendance assumée. La vraie question est plus fine : à quel niveau l’Europe veut-elle réellement reprendre la main ?

Veut-elle peser sur l’entraînement des modèles ? Sur les infrastructures ? Sur les couches applicatives ? Sur les données sectorielles ? Sur l’intégration dans les métiers ? Sur la gouvernance des usages ? Tant que cette hiérarchie n’est pas clarifiée, l’Europe risque de multiplier les discours de principe tout en laissant se consolider ailleurs les points de contrôle décisifs.

C’est aussi ce qui donne à ce débat une portée très concrète pour les entreprises. Car derrière la question de la bulle se cache une autre interrogation, plus opérationnelle : qui contrôlera demain les briques devenues indispensables dans les environnements de travail, les chaînes de décision, les services numériques et les architectures SI ?

Bulle et rupture peuvent cohabiter

Vouloir trancher trop vite entre bulle et révolution est sans doute une fausse élégance intellectuelle. Les deux phénomènes peuvent parfaitement coexister. L’histoire de la tech en fournit assez d’exemples pour éviter ce piège.

Oui, une partie des valorisations pourra être corrigée. Oui, certaines startups financées sur promesse disparaîtront. Oui, des usages aujourd’hui vendus comme structurants se révéleront secondaires. Mais cela ne dit rien, à lui seul, de l’effet durable que l’IA peut avoir sur certains pans du travail intellectuel, du logiciel, de la relation client, de la recherche d’information ou de l’automatisation de tâches intermédiaires.

Le scénario le plus crédible n’est donc ni celui d’une illusion totale, ni celui d’une transformation linéaire et sans heurts. C’est celui d’un tri. Une part de bulle dans les valorisations. Une part de rupture dans les usages. Et entre les deux, une longue phase de consolidation où les entreprises devront distinguer l’effet de mode, la dépendance stratégique et la valeur réellement créée.

Pour les décideurs IT, c’est sans doute là que se joue l’essentiel. Ramener l’IA du registre de la fascination à celui de l’arbitrage. Regarder les coûts, les dépendances, les gains, les usages, les rapports de force. En somme, faire ce que la tech supporte rarement en période d’euphorie : séparer le bruit du signal.


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights