

Gouvernance
Réconcilier infrastructures traditionnelles et excellence numérique
Par La rédaction, publié le 31 juillet 2025
L’ère numérique bouscule les frontières : mainframes, cloud et IA s’interconnectent pour relever les défis de performance, de sécurité et d’innovation des SI hybrides. Il faut moderniser sans renoncer. Les organisations repensent le rôle du mainframe, l’intègrent avec le cloud, automatisent les processus et renforcent la sécurité pour accompagner l’évolution rapide des métiers.
Par Phil Buckellew, President of the Infrastructure Modernization Business Unit chez Rocket Software
Le mainframe n’a jamais disparu. Il a simplement continué à faire ce pour quoi il avait été conçu : faire fonctionner les systèmes les plus critiques, jour après jour, en toute discrétion. Pendant des années, il a été perçu comme une plateforme synonyme de stabilité et de fiabilité, mais éloignée des stratégies numériques.
Cette perception change. La complexité croissante des architectures hybrides, combinée à de nouvelles attentes réglementaires et opérationnelles, conduit les organisations à reconsidérer les systèmes sur lesquels elles s’appuient, y compris les mainframes.
Repenser la modernisation
Cette nouvelle réalité redéfinit ce que signifie réellement l’excellence numérique, et une chose est certaine : il ne s’agit pas d’adopter toutes les technologies nouvelles. La priorité est de rendre les systèmes capables de fonctionner dans les conditions actuelles. Cela implique de pouvoir évoluer, échanger des données, automatiser certaines tâches et satisfaire à des exigences de plus en plus strictes en matière de performance et de conformité. Tout cela peut être accompli sans renoncer à l’infrastructure existante. En effet, ce qui compte réellement est la manière dont les systèmes sont modernisés et intégrés.
Le mainframe continue de jouer un rôle central puisqu’il gère de gros volumes de transactions, garantit une disponibilité constante et répond à des normes de sécurité élevées. Cependant, au cours des dernières années, son rôle s’est élargi : il peut interagir avec le cloud, exposer des services via des API et être intégré à des outils d’orchestration ou d’observabilité. Ces évolutions permettent aux organisations de l’inscrire dans leur architecture globale, plutôt que de le traiter comme un environnement distinct.
De l’isolement à l’intégration
De nombreuses organisations ont déjà emprunté cette voie. Certaines s’appuient sur des outils d’analyse dans le cloud pour traiter les données issues des transactions mainframe. D’autres mettent à jour leurs pratiques de développement tout en conservant leurs systèmes centraux intacts. Dans la majorité des cas, l’objectif n’est pas de tout migrer, mais de faciliter l’accès et de permettre une utilisation plus souple des données et applications mainframe au sein d’environnements hybrides. Lorsque cela s’avère nécessaire, certaines charges de travail peuvent être déplacées, mais la priorité reste l’intégration, non le remplacement.
Ce changement n’est pas uniquement d’ordre technique. Dans de nombreuses organisations, les processus métiers et les règles de gestion restent profondément ancrés dans les systèmes mainframe. Reproduire l’ensemble prendrait du temps et exposerait à des risques inutiles. L’intégration constitue une approche plus simple, qui garantit aussi la continuité opérationnelle, un impératif dans des secteurs comme la banque, l’assurance ou les services publics.
La sécurité fait également partie de l’équation. Avec l’augmentation des flux de données entre les systèmes, l’idée que le mainframe reste sécurisé du seul fait de son isolement n’est plus tenable. Des cadres réglementaires comme le RGPD ou DORA imposent une visibilité et un contrôle sur l’ensemble des systèmes, y compris les infrastructures historiques. Cela implique d’appliquer aux mainframes les mêmes exigences que pour les autres environnements : authentification renforcée, supervision continue, analyse claire des vulnérabilités.
L’intelligence artificielle commence également à jouer un rôle. Certains cas d’usage portent sur la surveillance des performances ou la maintenance prédictive. D’autres permettent d’exécuter des modèles en temps réel directement sur le mainframe, ce qui est particulièrement pertinent pour la détection de fraude. Lorsque l’analyse s’effectue sur place, à la même vitesse que les transactions, il n’est plus nécessaire de prélever un échantillon ni de transférer les données ailleurs. Cela permet de traiter les flux dans leur intégralité, sans délai.
Un rôle de long terme, aux usages qui évoluent
Bien que les mainframes conservent une capacité inégalée à traiter des charges critiques de manière sécurisée et à grande échelle, leur place au sein du SI évolue. Au cours de la prochaine décennie, ils seront de plus en plus gérés comme n’importe quel autre composant d’infrastructure : supervision, automatisation, sécurité. Ils ne seront plus perçus comme une exception héritée du passé, mais comme une brique à part entière d’un écosystème plus large, régi par des standards communs.
Par ailleurs, la question des compétences devient de plus en plus pressante. Les équipes se réduisent, et les experts des systèmes anciens se font plus rares. L’intelligence artificielle jouera ici un rôle important. Les interfaces gagnent en intuitivité, et certaines tâches qui nécessitaient autrefois une expertise technique peuvent désormais être réalisées via des outils conversationnels. Cela abaisse le seuil d’accès pour les nouveaux profils et facilite la continuité entre les générations technologiques.
La modernisation ne consiste plus à rompre avec le passé, mais à reconnaître ce qui fonctionne encore, et à en faciliter l’usage dans un environnement en mutation. Le mainframe s’inscrit pleinement dans cette logique. Il constitue une base solide, capable d’évoluer sans être remplacée. Le travail pour le rapprocher du reste de l’infrastructure est déjà en cours, et se poursuivra discrètement, à mesure que les systèmes deviennent plus interconnectés et plus exigeants.
À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :
