Data / IA
Forrester publie sa « Vague 2025 » des Infrastructures IA… et nous laisse perplexes !
Par Laurent Delattre, publié le 08 janvier 2026
Entraînement, fine-tuning, inférence et RAG ne sollicitent ni les mêmes ressources, ni les mêmes goulots d’étranglement. Construire une infrastructure IA efficace revient à orchestrer CPU, GPU, stockage, réseau, stack logicielle et opérations dans un ensemble cohérent, pilotable et industrialisable. La « Forrester Wave 2025 » illustre ce changement de paradigme en traitant l’infrastructure IA comme une capacité d’entreprise et veut guider les DSI vers des choix plus avisés… Mais, nous, elle nous a un peu perdus…
Cela semble de plus en plus évident. Conséquence directe de la fin des découvertes, des expérimentations, et des POC, les DSI parleront en 2026 beaucoup plus d’infrastructure IA que les années précédentes. Car l’heure est à la mise en production et à l’industrialisation de l’IA sans exploser les coûts, l’exploitation, ni le risque.
Dans son dernier rapport « Forrester Wave : AI Infrastructure Solutions Q4-2025 », Forrester insiste d’ailleurs sur cette évolution qui se traduit selon ses analystes par un changement de paradigme. Pour les DSI, il ne s’agit plus simplement d’accumuler des GPU, mais de construire une infrastructure efficace, durable et spécifiquement taillée pour les charges de travail IA. Avec ce constat que l’infrastructure IA ce n’est pas seulement « du compute » : c’est un assemblage cohérent entre CPU, GPU, infrastructure de stockage, infrastructure réseau, stack logicielle pour l’IA et opérations (déploiement, observabilité, lifecycle).
L’entraînement, le fine-tuning, l’inférence et le RAG imposent des stress différents sur la stack technologique. Tenter de tout faire tourner sur une infrastructure unique et banalisée crée des goulots d’étranglement et gaspille des ressources précieuses. La course à la puissance GPU laisse place à une approche plus mature : celle de l’architecture « Fit-for-Purpose » (adaptée à l’usage).
Pour éclairer le marché de l’infrastructure IA, Forrester vient donc de publier sa nouvelle « vague » 2025 des solutions d’infrastructure IA. Et le moins que l’on puisse dire, c’est que celle-ci est assez surprenante et devrait faire engendrer bien des débats.
D’abord parce que l’approche de Forrester déroute un peu : l’analyste mélange allègrement fournisseurs d’infrastructure cloud et fournisseurs d’infrastructure « on premises ». Le choix est, sur le fond, compréhensible, mais en pratique audacieux et déroutant, car les niveaux de prestation sont difficilement comparables.
Ensuite parce que, et c’est en partie une résultante du choix que l’on vient d’évoquer, les positions relatives des acteurs sont pour le moins troublantes. Microsoft semble très étrangement « largué » par Google et AWS, Cerebras navigue dans les mêmes eaux qu’IBM, Oracle semble perdu, et les néoclouds sont désespérément absents ! Tout ceci est pour le moins déroutant. Alors nous nous sommes plongés un peu plus dans le rapport pour en savoir plus et comprendre cet étrange classement. Même si au final, on en sort avec bien plus de questions que de réponses…

Préambule
Pour élaborer son classement, Forrester enquête sur trois axes :
– la richesse de l’offre actuelle, centrée volontairement sur l’infrastructure IA elle-même (calcul, réseau et stockage) et sur sa capacité à répondre de manière différenciée aux exigences des workloads de training, de fine-tuning et d’inférence, avec un accent fort sur l’efficacité d’ingénierie, l’exploitation opérationnelle et la durabilité.
– la solidité de la stratégie, qui mesure la vision à moyen et long terme, la feuille de route technologique, la capacité d’innovation, les choix d’architecture (silicon, interconnexions, modèles hybrides) et la faculté à éviter les verrouillages tout en restant flexible dans le temps.
– Enfin, Forrester intègre le retour d’expérience client, utilisé comme indicateur de validation, reflétant la satisfaction réelle des entreprises en matière de performance, d’opérabilité et de valeur en production, même si cet axe semble en réalité absent du schéma rendu public, probablement par manque de retours et de distance.
Des leaders prévisibles mais…
Retrouver, Google, AWS, Microsoft, NVidia et Alibaba cloud dans la vague des leaders est évidemment tout sauf une surprise. Les 3 hyperscalers américains se livrent une bataille spectaculaire sur le sujet de l’IA et sur les investissements en infrastructure IA que personne d’autre ne peut suivre. Nvidia est logiquement présent puisqu’il est le maître des GPU IA et sa stack logicielle « Enterprise AI » sert de fondation à presque toutes les offres clés en main destinées aux datacenters d’entreprise. Forrester ayant décidé de ne pas séparer Hyperscaler et fournisseurs « on prem », sa place est logique. Enfin, Alibaba Cloud est un acteur majeur de l’IA notamment en Asie mais aussi dans l’écosystème open-source où ses modèles Qwen et Wan servent de référence au marché.
Mais alors qu’il aurait semblé ultra-logique de voir Google, AWS, et Microsoft à peu près au même niveau, le dernier des trois se voit largement distancé dans les calculs.
Pour comprendre cet écart, il faut se pencher sur les notes et sur les remarques des analystes.
Google Cloud obtient : 4,9 sur 5 en « offre actuelle » et 4,3 sur 5 en « stratégie ». Dans le détail, Google obtient 12 fois la note maximale « 5/5 » sur les critères qui forment la note « offre actuelle ». Seule sa note « écosystème » de « 3/5 » lui vole la note parfaite. Et l’hyperscaler obtient 4 notes « 5/5 » sur les 6 critères de la note stratégie. Il doit se contenter d’un « 3/5 » en « roadmap » et en « support ».
Dans son analyse, Forrester salue particulièrement l’approche de co-design entre silicium, réseau et infrastructure, incarnée par les TPU étroitement intégrés à la fabric réseau de Google Cloud. Cette verticalisation permet une inférence très efficace et bien maîtrisée à grande échelle. En contrepartie, Forrester note une courbe d’apprentissage longue, des interrogations persistantes sur le verrouillage technologique et un écosystème perçu comme un peu moins riche que celui de certains concurrents hyperscale.
AWS obtient : 4,8 sur 5 en « offre actuelle » et 4,8 en « stratégie ». Des scores obtenus en réussissant le « 5/5 » sur 11 des 13 critères du score « Offre actuelle » et « 5/5 » sur 5 des 6 catégories du score « Stratégie ». D’un côté, AWS doit se contenter d’un « 3/5 » en « inférence » et en « configuration » et de l’autre d’un « 3/5 » en « support ».
Dans son commentaire d’analyse, Forrester note qu’AWS se distingue par l’ampleur et la maturité de sa plateforme cloud, combinant GPU NVIDIA et silicium propriétaire (Inferentia et Trainium) pour optimiser les coûts, en particulier sur l’inférence à grande échelle. Forrester salue la profondeur de la feuille de route et l’intégration avec l’écosystème AWS, mais pointe une complexité élevée dans la planification des capacités et une portabilité des workloads encore imparfaite entre accélérateurs, ainsi qu’un retard relatif de son silicium maison pour l’entraînement de très grands modèles.
Microsoft Azure, en revanche, n’obtient que « 4/5 » en « offre actuelle » et que « 3,8/5 » en « stratégie ». Dans le détail, l’hyperscaler n’obtient « que » 6 fois la note parfaite de « 5/5 » sur les critères du premier axe, et que 3 fois le « 5/5 » sur les critères stratégiques.
Dans son commentaire analytique, Forrester rappelle que Microsoft Azure est reconnu pour sa capacité à déployer rapidement et à grande échelle les dernières générations de GPU NVIDIA, avec une couverture géographique mondiale et une intégration étroite aux services cloud et outils entreprise de Microsoft. Forrester souligne néanmoins que, malgré une vision solide et des investissements massifs, l’écosystème de fournisseurs de modèles et certaines capacités différenciantes restent moins développés que chez les leaders les plus avancés, tandis que les coûts sont souvent perçus comme élevés.
C’est évidemment sur les notes de ces critères que les incompréhensions naissent. D’autant que Forrester ne précise pas ce que chaque critère détaille réellement. Pourquoi Microsoft n’obtient que « 3/5 » sur les critères « architecture », « data management », « training », « inferencing » et « operations » et « déploiement local » ? C’est un mystère. On voit assez mal ce qui justifie un tel écart sur « architecture » avec les deux autres hyperscalers, sur « inferencing » alors que l’offre MaaS d’Azure AI Foundry n’est pas vraiment moins riche que le Model Garden de Vertex AI ou l’API Bedrock d’AWS et alors que Microsoft offre tout le catalogue API d’OpenAI ! On ne voit aussi pas très bien comment Microsoft peut être à ce point distancé avec son Microsoft Fabric (et son offre SGBD) en « Data Management » face à Google (BigQuery/Dataplex) et AWS (Redshift/Sagemaker).
Idem avec le critère « déploiement local » alors qu’Azure à sa corde « Azure Arc » à son arc « on prem ».
Il semble qu’en réalité, Forrester ait particulièrement privilégié les processeurs maison des hyperscalers, alors que l’accélérateur MAIA-100 de Microsoft est pour l’instant réservé aux besoins internes du groupe.
Il y a probablement moins matière à débat sur les deux autres « Leaders » : Nvidia et Alibaba Cloud.
Forrester présente Nvidia comme la référence absolue en matière de performance brute et d’intégration système, avec des plateformes DGX et des interconnexions NVLink/NVSwitch conçues pour maximiser la bande passante et la concurrence. Cette domination technologique s’accompagne toutefois, selon Forrester, de contreparties fortes : des coûts élevés, une consommation énergétique importante et une dépendance forte à des architectures très spécialisées, qui peuvent limiter les arbitrages économiques pour certaines entreprises.
NVidia obtient 4,2/5 en « offre actuelle » (ce qui lui permet de dépasser Microsoft, notamment sur le Data Management, surprenant non ?) et 4,4/5 en stratégie (bon, là c’est forcément plus subjectif comme critères).
Quant à Alibaba Cloud, l’hyperscaler chinois tire sa force, selon Forrester, d’une très bonne maîtrise opérationnelle des clusters GPU dans la zone Asie-Pacifique, avec une attention particulière portée à la latence, à l’efficacité énergétique et à la conformité réglementaire locale. Ses limites identifiées par Forrester portent sur une portée géographique restreinte hors Asie, l’absence de silicium propriétaire (apparemment les Yitian 710 et Hanguang 800 comptent pour du beurre pour Forrester) et une capacité de montée en charge globale inférieure à celle des grands hyperscalers occidentaux.
Les Strong Performers
IBM, HPE, Dell et, de façon peut être plus étonnante, Cerebras Systems, figurent sur la vague des « Strong Performers » (performeurs solides).
IBM obtient « 3/5 » en « offre » et « 3/5 » en stratégie avec Fusion HCI, IBM E17 et les Power11 associés à Red Hat OpenShift et la plateforme watsonx. Forrester valorise l’expertise historique en gouvernance, en environnements hybrides et en secteurs régulés, d’IBM avec une offre combinant on-premises, cloud et outillage de gestion du cycle de vie de l’IA. Forrester relève toutefois une complexité élevée, des coûts de licence importants et une différenciation limitée sur l’inférence et les performances pures par rapport aux acteurs les plus orientés “hardware IA”.
Cerebras Systems obtient « 2,7/5 » en « offre » et « 3 ,7 » en stratégie. Pour Forrester, Cerebras Systems se démarque par une innovation radicale avec son processeur wafer-scale, capable de réduire fortement la latence et de simplifier certains scénarios d’entraînement de très grands modèles. Même si l’analyste considère que cette approche atypique impose un effort d’intégration important, un écosystème logiciel encore immature et un risque de verrouillage technologique qui limite son adoption hors de cas d’usage très spécialisés ou de recherche avancée.
HPE (qui obtient 2,9 en Offre et 2,8 en stratégie) est présent avec ses plateformes ProLiant et Cray mais les analystes ne citent pas spécifiquement sa plateforme « HPE Private Cloud AI » ni son offre « HPE AI Factory ». Pour Forrester, HPE se positionne comme un intégrateur solide d’infrastructures IA on-premises et hybrides, avec des compétences reconnues en ingénierie système, refroidissement liquide et services de cycle de vie. Selon Forrester, ses faiblesses tiennent surtout à un manque de différenciation technologique propre, à un écosystème logiciel et ISV moins dense et à une lisibilité perfectible de ses offres de consommation GreenLake.
Dell Technologies (2,6 en Offre et 2,8 en stratégie), avec ses PowerEdge et son XE9680 (Forrester n’évoque pas Dell AI Factory) est apprécié par Forrester pour la fiabilité de ses architectures validées, sa capacité industrielle et la profondeur de son support entreprise, qui rassurent les DSI cherchant des déploiements GPU prévisibles et maîtrisés. En revanche, Forrester souligne une faible innovation propre sur l’infrastructure IA et des capacités plus limitées sur les volets entraînement, inférence avancée et développement logiciel.
Les « Contenders »
Lenovo, Graphcore, Supermicro et Oracle surfent sur la vague des Challengers en attendant des vents plus porteurs.
Lenovo (2,1 en Offre et 2,7 en Stratégie) est, selon Forrester, perçu comme un acteur efficace et compétitif sur le plan des coûts, capable de livrer des systèmes GPU bien intégrés et énergétiquement efficients. Son principal point faible reste selon l’analyste l’absence de différenciation technologique marquée et un écosystème logiciel et de certifications plus restreint que celui de ses concurrents directs.
Graphcore (2 en Offre, 2,4 en Stratégie) conserve une image d’innovateur auprès de Forrester grâce à son architecture IPU orientée vers la parallélisation fine et la faible latence. Cette spécialisation s’accompagne toutefois, d’après l’analyste, d’un manque de maturité de l’écosystème, d’une disponibilité limitée, d’une adoption restreinte par les frameworks dominants et d’un effort d’adaptation significatif pour les équipes IT.
Supermicro (1,1 en Offre, 2,5 en Stratégie) est salué par Forrester pour sa rapidité de mise sur le marché, la densité de ses systèmes GPU et son positionnement tarifaire agressif, très attractifs pour les organisations cherchant un accès rapide aux dernières plateformes NVIDIA. Ses faiblesses, selon l’analyste, concernent surtout la profondeur des services entreprise, le support sur le long terme et un niveau de certification et d’accompagnement inférieur à celui des grands constructeurs historiques.
Enfin, Oracle Cloud Infrastructure (OCI) doit s’arracher les cheveux à la lecture du rapport ! Son offre ne récolte qu’un 2,9 sur 5 quant à sa stratégie, elle récolte 1,2 sur 5 ! L’hyperscaler qui monte est affublé des plus basses notes en Vision, en Innovation, en Roadmap et en écosystème ! La gifle est violente et on voit assez mal ce qui la motive. Forrester salue pourtant l’accès bare-metal aux GPU NVIDIA et les performances réseau à faible latence, qui séduisent les entreprises cherchant un contrôle fin et une performance prévisible. En contrepartie, Forrester note une innovation limitée au-delà des designs de référence NVIDIA, une expérience utilisateur jugée inégale et un écosystème plus restreint que celui des grands hyperscalers.
Des oublis qui font grincer les dents
Les avis du Forrester n’engagent évidemment que leurs auteurs. Mais cette vague 2025 ne déroute pas seulement sur l’utilisation des critères et sur le choix de mixer hyperscalers, fournisseurs traditionnels et acteurs comme Cerebras et Nvidia. Elle nous interroge également sur l’absence des hyperscalers européens et notamment d’OVHcloud et de Scaleway qui ont des offres IA solides ainsi que sur celle des Néoclouds. Ce dernier point est encore plus étonnant que l’absence des européens très régulièrement oubliés des analystes américains (les acteurs européens étant parfois aussi désarmés face aux questionnaires des analystes américains). Car Forrester a été parmi les premiers à documenter par ailleurs leur montée en puissance. Dans ses tendances cloud 2025, l’analyste parle explicitement de la compétition “hyperscalers vs neoclouds” autour des services IA “first-party”. Et, dans ses prédictions 2026, l’analyste met en scène “the rise of the neoclouds” comme une dynamique structurante.
Forrester semble avoir privilégié ici des acteurs capables de cocher, de façon crédible, l’ensemble des exigences d’une “solution d’infrastructure IA” d’entreprise (couverture training + inférence, options de déploiement, exploitation/lifecycle, sécurité, écosystème matériel/logiciel). Mais vu que Supermicro ou Cerebras Systems figurent dans la vague, on ne voit pas trop la logique.
Au final, même si cette « Vague 2025 des infrastructures IA » se révèle déroutante, elle invite les DSI à ouvrir leurs options et à se pencher sur des critères qu’ils n’ont pas nécessairement en ligne de mire. Il sera très intéressant d’analyser la vague 2026…
À LIRE AUSSI :
À LIRE AUSSI :
