

Cloud
Red Hat Summit 2025 : Les 9 informations clés que les DSI doivent en retenir
Par Laurent Delattre, publié le 26 mai 2025
Red Hat fonce tête baissée dans l’ère AI-first en injectant de l’IA partout : dans le shell, les clusters, la virtualisation et jusqu’aux agents autonomes. Des clusters plus malins, des modèles optimisés dès le pull, des juniors autonomes avec Lightspeed : à l’occasion de son Summit 2025, Red Hat a commencé à redessiner les règles du jeu IT… et à terme celles de la DSI !
L’IA peut libérer le potentiel humain et économique, tout comme l’open source l’a fait…
En ouverture du Red Hat Summit 2025, Matt Hicks, CEO de Red Hat n’a pas longtemps tergiversé avant de placer sa conférence sous le signe de l’IA et poser la vision de Red Hat sur le grand sujet IT du moment.
En une phrase, il résume la nouvelle trajectoire « AI First » non seulement de sa propre entreprise mais aussi de toutes ses entreprises clientes. L’idée : prolonger la promesse d’ouverture qui a fait le succès de Linux et de Kubernetes, mais pour l’ère des modèles de fondation. Une vision qui repose sur trois piliers : fédérer la communauté IA open source, industrialiser des projets IA collaboratifs et offrir un tremplin vers l’IA sans sacrifier les applications existantes.
Le portefeuille Red Hat joue le rôle de pont, automatisant déploiement et maintenance grâce à des outils IA open source et libérant les équipes pour des tâches à plus forte valeur. Et cette transformation IT arrive à point nommé, alors que Red Hat capitalise sur le mécontentement généré par les changements de licence VMware depuis son acquisition par Broadcom : selon Ashesh Badani, directeur produit de Red Hat, la demande en virtualisation et cloud hybride « est phénoménale » et la solution OpenShift Virtualization a quasiment triplé sa base installée et doublé son nombre de clusters en production.
1 – RHEL 10 : un nouveau socle pour l’IA administré avec l’IA
C’était LA grande annonce de ce Red Hat Summit 2025. L’éditeur a officialisé RHEL 10, dixième évolution majeure (et première centrée sur l’IA) de son omniprésent Red Hat Enterprise Linux. RHEL 10 arrive avec un chiffrement post-quantique, un mode image qui transforme le système en conteneur bootable (ce qui simplifie et sécurise les déploiements) et des profils cloud optimisés mis au point avec AWS, Google Cloud, Microsoft Azure et Oracle Cloud.

L’innovation majeure réside dans l’intégration de Lightspeed au cœur de RHEL 10, un assistant d’IA générative directement intégré au Shell et qui permet de « converser » avec le système. Les administrateurs peuvent ainsi utiliser le langage naturel pour obtenir de l’aide et des conseils pratiques, depuis le dépannage de problèmes courants jusqu’à la gestion d’environnements complexes. Ainsi, en langage naturel, un administrateur peut demander un diagnostic SELinux, générer un playbook Ansible ou corriger un fichier systemd : LightSpeed produit le script, l’explique et invite à la relecture. Raj Das, directeur senior de la gestion des produits chez Red Hat, explique que cette approche « aide à combler le déficit de compétences auquel nous et nos clients sommes confrontés concernant les compétences Linux ».
Et c’est là le facteur clé pour les DSI : en intégrant un copilote opérationnel, le nouveau système réduit la dépendance aux profils seniors et permet d’appliquer des bonnes pratiques homogènes sur tous les environnements, y compris sur le cloud grâce au mode image. Avec RHEL 10, la DSI dans son ensemble gagne en vélocité de patching, industrialise IaC sans alourdir la charge de support et s’offre un OS solide pour construire ses IA « maison ».
2 – Red Hat AI Inference Server : l’autoroute de l’inférence on-prem
Reposant sur vLLM, le moteur d’inférence open source universel compatible OpenAI et Hugging Face, Red Hat AI Inference Server transforme ce moteur en brique industrielle et portable. Il peut s’exécuter seul mais est également intégré aux offres RHEL AI et d’OpenShift AI. Sa force ? Offrir une vraie solution standardisée, bâtie sur un moteur d’inférence réputé pour sa performance et son universalité, afin de déployer et exécuter le plus simplement et le plus rapidement possible des modèles IA dans des environnements hybrides, que l’on soit sur un poste de travail, un serveur local, une infrastructure Edge ou dans le Cloud !

L’une des forces de la solution (et de vLLM) est d’offrir un plan d’exécution et de contrôle unique pour exploiter aussi les GPU Nvidia et AMD, les accélérateurs Intel Gaudi, les TPU de Google, les NPU (tels Inferentia d’AWS), les accélérateurs IBM, etc.
L’offre de Red Hat est d’autant plus intéressante qu’elle découle directement du rachat de Neural Magic (en novembre dernier), principal contributeur commercial à vLLM. Dit autrement, Red Hat AI Inference Server intègre en standard toutes les optimisations (compression, quantification, sparsité DeepSparse) opérées par Neural Magic dans vLLM, qui permettent de réduire l’empreinte des modèles et booster le débit de tokens sans sacrifier la qualité.
Les modèles Gemma, Llama 2/3, Mistral AI, Phi ou DeepSeek arrivent pré-optimisés dans la solution : un simple pull d’image permet de les servir immédiatement, et la validation Red Hat garantit reproductibilité et performances constantes sur les différentes architectures.
L’adoption d’Inference Server pour les DSI promet une forte standardisation des workloads LLM (quels que soient les modèles, accélérateurs et clouds utilisés) et donc d’éviter la fragmentation des piles logicielles et par voie de conséquence l’adoption de politiques de sécurité, d’audit et d’observabilité unifiées et alignées sur Kubernetes. Elle facilite des approches hybrides et devrait mécaniquement réduire les coûts (notamment en gérant plus intelligemment l’usage des capacités des GPU, CPU, et NPU à disposition).
3 – OpenShift Lightspeed : un copilote Dev & Ops
De l’IA conversationnelle intégrée à RHEL 10, c’est cool. Mais de l’IA conversationnelle intégrée au cœur de l’orchestrateur des conteneurs et au gestionnaire des clusters, c’est encore plus fort ! Comme annoncé l’an dernier, Red Hat décline son IA « LightSpeed » pour OpenShift. Cette IA se veut une réponse pragmatique et immédiate au déficit de compétences qui, selon IDC, affectera plus de 90% des organisations mondiales d’ici 2026.
Intégré à la console OpenShift, Lightspeed guide déploiements, migrations VM et diagnostics en langage naturel. Les utilisateurs peuvent poser des questions en langage naturel et recevoir une assistance proactive étape par étape. Une nouvelle fonctionnalité « cluster-interaction », en preview, permet à Lightspeed de récupérer directement le contexte des clusters de l’organisation pour des réponses plus rapides et précises. La fonction « bring your own knowledge » permet aux organisations d’introduire leur propre documentation et processus au cœur du système.
Bref, là encore cette IA contribue à fluidifier l’expertise plateforme et à résorber le déficit de compétences Kubernetes tout en réduisant le MTTR. Avec comme principale avantage pour la DSI de pouvoir implémenter et documenter ses propres standards dans le moteur, tirer ainsi tirer parti de logs plus contextualisés et sécuriser cet usage potentiellement critique en gardant le modèle « on prem » si nécessaire.
4 – L’IA en open-source par la pratique et le projet llm-d
Toute la stratégie de Red Hat repose sur l’open-source garantie de transparence, de collaboration et flexibilité. Avec une envie et une volonté : faire de l’IA une ressource aussi ouverte, portable et collaborative que Linux peut l’être pour les systèmes d’exploitation. Ce qui imposera d’imposer des modèles ouverts, des runtimes et moteurs d’inférence ouverts, et des protocoles ouverts, le tout assemblé avec cohérence et élégance. La route est donc encore longue.
Une feuille de route qui chez Red Hat repose sur vLLM (on vient de le voir), sur des API ouvertes (cf plus loin), sur des modèles Hugging Face (cf plus loin) et sur un nouveau projet communautaire et copiloté par Google Cloud, IBM Research, CoreWeave et Nvidia : llm-d.

Ce projet « llm-d » est fondamental : il étend les capacités vLLM pour mieux distribuer l’inférence des grands modèles sur l’ensemble d’un cluster Kubernetes (et non un seul serveur). Il ajoute ainsi au-dessus de vLLM une couche d’orchestration, de fragmentation des traitements, de routage des requêtes, de gestion du KV-Cache et d’optimisation réseau pour permettre une inférence distribuée optimale et simple à administrer afin d’éviter les goulots d’étranglement et éviter l’utilisation de serveurs toujours plus massifs (et onéreux) et consommateurs pour l’inférence des grands modèles. En gros, llm-d est aux inférences IA ce que Kubernetes est aux conteneurs. Il amplifie la puissance de vLLM pour transcender les limitations des serveurs uniques et débloquer la production à grande échelle pour l’inférence IA.
AMD, Cisco, Hugging Face, Intel, Lambda et Mistral AI ont déjà annoncé rejoindre cette initiative.
Pour les DSI, llm-d offre aux infrastructures informatiques d’entreprise existantes (et s’appuyant sur Kubernetes) des capacités d’inférence massives. De quoi absorber la croissance des usages IA sans restreindre le choix des modèles ni exploser la facture GPU, tout en préservant portabilité, transparence, contrôle et gouvernance dans un pur esprit open source.
5 – Un catalogue validé et personnalisation multilingue
Pas d’IA open source, sans modèles ouverts et aisément personnalisables sans contraintes. Alors Red Hat s’est associé à Hugging Face pour valider, compacter et optimiser (notamment au travers des méthodes de compactage de Neural Magic) certains des modèles hébergés sur la plateforme phare de l’IA ouverte. Forcément un tel effort de certification impose de sélectionner avec attention les modèles. Pour l’instant, la plateforme « Red Hat AI » n’intègre qu’une trentaine de modèles sur les dizaines de milliers hébergés par Hugging Face. Un tri sur le volet qui permet ainsi de disposer de versions certifiées et optimisées pour RHEL AI, OpenShift AI et Inference Server des modèles LLama de Meta, des modèles de Mistral AI, des modèles Granite d’IBM Research, des modèles Phi de Microsoft Research ou encore des modèles Gemma de Google DeepMind.
Pour les DSI, un tel catalogue réduit les audits internes et accélère le Time-To-Market car des modèles validés peuvent être poussés en production plus vite.
6 – MCP et Llama Stack : standards de fait pour l’ère des agents
Au-delà de l’IA conversationnelle, l’avenir de l’intelligence artificielle repose sur les agents IA autonomes. Une IA agentique encore naissante mais bien trop « hype » pour que Red Hat ne s’en empare pas déjà. Une IA agentique qui ne prendra forme qu’en présence de standards.
Red Hat a ainsi annoncé soutenir le protocole MCP proposé par Anthropic et qui a déjà séduit OpenAI, Google et Microsoft (MCP va même bénéficier d’une implémentation native sous Windows). MCP vise à standardiser la façon selon laquelle les IA (et notamment les agents IA mais aussi les assistants conversationnels) se connectent à des sources de données (fichiers, applications d’entreprise, bases de données, etc.).

Si Red Hat n’a pas encore pris position sur les protocoles inter-agents et la guerre qui point à l’horizon entre l’approche centralisée du ACP d’IBM et l’approche peer-to-peer du A2A de Google, l’éditeur a en revanche clairement soutenu la pile agentique de Meta, Llama Stack ! Intégrée à la plateforme Red Hat AI, Llama Stack propose une API unifiée pour l’inférence (vLLM), la génération augmentée, l’évaluation des modèles et la gestion d’agents IA. Red Hat y voit une base libre et “hardware-agnostique” pour orchestrer des workflows IA complexes (et agentiques) sur n’importe quels cloud et infrastructure RHEL/OpenShift.
7 – Advanced Developer Suite : DevSecOps et IA
Disponible le 1ᵉʳ juillet prochain, la suite « Advanced Developer Suite » de Red Hat, combine des outils d’ingénierie de plateforme avec des capacités de sécurité renforcées pour accélérer le développement d’applications, notamment d’applications IA.
Elle regroupe en un tout cohérant la solution Red Hat Developer Hub (et son portail interne Dev « Backstage »), des modèles préconfigurés pour des scénarios IA courants (Chatbot, RAG, détection d’objets, etc.), la solution « Red Hat Trusted Profile Analyzer » (gestion complète des SBOM, VEX et CVE) et la solution « Red Hat Trusted Artifact Signer » (signature et vérification robustes des modèles d’IA packagés au format.
La solution s’intègre bien évidemment aux plateformes CI/CD comme OpenShift Pipelines et GitOps.
Une solution qui vise essentiellement à fluidifier et sécuriser une supply chain logicielle qui s’étend désormais jusqu’aux modèles IA, chaque modèle déployé étant ici signé, scanné et traçable.
8 – OpenShift Virtualization : l’effet VMware
Sentant le vent tourner en défaveur de VMware avec son rachat par Broadcom, Red Hat a récemment redoublé ses efforts pour enrichir son OpenShift Virtualization, autrefois fonctionnalité perdue dans OpenShift et désormais présentée comme une plateforme dédiée à la virtualisation et qui peut être autonome (offre OpenShift Virtualization Engine).
Depuis l’apparition de RH-OVE en début d’année, Red Hat affirme que les déploiements ont bondi de 150 %. Red Hat revendique des économies OPEX jusqu’à 77 % en migrant des charges vSphere vers OpenShift Virtualization sur AMD EPYC. En public preview sur Azure, et en GA sur AWS et IBM Cloud (en attendant un prochain déploiement sur Google Cloud et Oracle Cloud), OpenShift Virtualization joue la carte du cloud hybride et de l’unification des concepts VM / Conteneurs.
« OpenShift Virtualization apporte la flexibilité d’exécuter à la fois des machines virtuelles et des conteneurs afin que vous puissiez moderniser à votre rythme sans changer de plateforme », explique Stefanie Chiras, responsable des partenariats chez Red Hat. « Notre écosystème de partenaires apporte la flexibilité pour connecter ces VMs et conteneurs aux données, à la périphérie, au reste de votre centre de données et aux clouds de manière très sécurisée et résiliente. »
9 – Red Hat Edge Manager (RHEM)

Ce n’est certes pas l’annonce qui a suscité le plus de buzz médiatique mais c’est pourtant l’une des annonces les plus originales et intéressantes de ce Red Hat Summit 2025.
Annoncé en tech preview, Edge Manager (ou RHEM) est une solution complète de gestion de flotte « Edge » à grande échelle. Cette solution permet de rationaliser la supervision de l’infrastructure informatique edge et des applications depuis une console unique, qu’il s’agisse de milliers de systèmes de point de vente dispersés ou de machines industrielles sur des sites d’usine distants. Elle centralise l’onboarding, les mises à jour OS et conteneurs, la télémétrie et les alertes de milliers de sites. L’ensemble s’appuie sur un agent déployé sur chaque dispositif Edge qui sait se montrer résilient en tout occasion, reste opérationnel hors-ligne et maintient la connectivité et le contrôle même dans des conditions réseaux difficiles.
Pour les industries distribuées (retail, manufacturing, transport), une telle solution promet de réduire le coût du truck-roll et de sécuriser la chaîne edge-core. La standardisation Podman/K8s évite la prolifération d’outils spécifiques edge et facilite le déploiement d’inférence locale ou de caches RAG, tout en maintenant un contrôle centralisé.
Au final, au-delà des effets d’annonce, ce Red Hat Summit 2025 aura révélé un nouveau visage de Red Hat qui ne veut plus se contenter d’être l’épine dorsale open source des infrastructures mais ambitionne de s’imposer en couche IA où se logeront, s’exécuteront et se gouverneront les intelligences de demain avec leurs agents IA et leurs modèles personnalisés.
Si la conférence à confirmer une chose, c’est bien que la vraie disruption ne réside pas dans l’ajout d’assistants IA aux outils existants, mais dans la transformation radicale du métier d’administrateur système, d’architecte infrastructure et de développeurs, ce qui forcément induit tout autant une métamorphose de la DSI et de son organisation. Si un junior peut réellement diagnostiquer et résoudre des problèmes complexes grâce à Lightspeed (ce qui reste à démontrer en situations réelles dans les DSI), c’est toute la pyramide des compétences qui se redéfinit.
Au-delà, l’arrivée de Inference Server et Red Hat AI remet au goût du jour les débats sur écosystèmes ouverts et propriétaires à l’ère de l’IA. Plus vite Red Hat et IBM arriveront à démontrer que leurs solutions permettent aux entreprises de bâtir une chaîne de valeur continue de l’IA, plus l’IA apparaîtra comme une nouvelle chance pour l’écosystème open source. En espérant – c’est loin d’être une évidence à ce jour – que ces IA viendront bien soutenir la stratégie Business sans supplanter les humains qui la concrétisaient jusqu’ici.
À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :
