Cloud
Quelle infrastructure cloud pour une organisation plus performante ?
Par Alessandro Ciolek, publié le 28 novembre 2025
BNP Paribas, Vente-unique, TF1+, Bayard et l’Arcep reviennent, dans notre Matinale, sur leurs arbitrages entre cloud public, privé, hybride, multicloud et souverain. Un replay indispensable pour les DSI qui doivent concilier performance, résilience, coûts, IA et autonomie stratégique.
La keynote d’ouverture accueille Jean-Michel Garcia, Group CTO de BNP Paribas et donne d’emblée le ton. Au sein du groupe, pas de précipitation, mais une « patience stratégique » assumée. La banque a choisi dès 2018 un chemin à contre-courant, en s’appuyant sur une région IBM Cloud entièrement dédiée, construite dans ses propres datacenters, avec des opérations contrôlées en Europe. « On voulait le cloud public, mais dans nos datacenters, avec nos clés, nos équipes, notre continuité », résume Jean-Michel Garcia. L’ambition chez BNP Paribas est assumée : « On voudrait mettre en place un genre d’hyperscaler privé, où on est capable d’avoir le volume, l’unification de la robotique, la régionalisation, soit en Europe, soit en Asie, soit aux États-Unis, soit par gros blocs métiers ».
Paul Boisson d’Ippon Technologies vient replacer le cloud dans un paysage plus mouvementé. « Aujourd’hui, le marché du cloud, c’est un marché à plus de 700 milliards de dollars dans le monde » explique-t-il. Quatre tendances dominent : une poursuite de la migration (le cloud a fait ses preuves et constitue une « boîte à outils formidables »), une vague de désillusion pour ceux qui découvrent que le cloud « ne résout pas les problèmes d’organisation, ni le manque de compétences », une explosion attendue des usages IA qui pourraient « tripler » la consommation de cloud d’ici 2030, et enfin l’irruption du souverain comme sujet autant géopolitique que technologique.
Cloud ou pas cloud, telle n’est pas la question
Le témoignage de Grégory Schurgast, directeur technique de Vente-unique.com, illustre à l’inverse le parcours d’un pure player parti de son propre datacenter pour basculer progressivement vers AWS. « On est passé d’un catalogue de 9 000 à plus de 3 millions de références » explique Grégory Schurgast. Reprise de la marque Habitat, pics de charge du Black Friday : le cloud public devient un levier pour absorber les à-coups. Mais la promesse d’agilité a un prix : coûts de transfert entre régions, réplications de données pour la résilience, dépendance aux évolutions de licensing et monitoring permanent des consommations par domaine métier.
Au sein de Oney, une banque numérique axée sur les offres de traitement des paiements, la transition vers Azure s’est effectuée sous la forme d’une vaste opération de migration (800 serveurs, noyau réseau, environ cinquante applications). Sylvain Lerat décrit un projet en deux temps : d’abord, tenir une deadline de migration serrée tout en traitant les dettes techniques indispensables ; ensuite, acculturer les équipes, harmoniser les pratiques cloud entre pays, diffuser les bonnes pratiques de sécurité et de FinOps.
La table ronde réunit ensuite trois regards complémentaires : Thierry Bonhomme (CTO TF1+), Cyril Maman (directeur infrastructures, architecture SI et cybersécurité de Bayard), et Philippe Pujalte (COO Euromed, Inetum). Tous constatent que la question n’est plus « cloud ou pas cloud », mais « quels clouds pour quels usages ». Pour le groupe Bayard, Cyril Maman distingue clairement IaaS, PaaS et SaaS : inutile de payer un hyperscaler pour du simple stockage de fichiers qu’un hébergeur français fera « plus robuste et moins cher », alors que certaines briques PaaS très innovantes justifient l’exposition à un vendor lock-in assumé. Il insiste sur deux disciplines vitales : le FinOps « sans ça, vous mettez en péril le budget de la DSI et l’architecture ». L’expérience d’une cyberattaque en 2024 a montré l’intérêt de l’infra-as-code et du cloud pour reconstruire vite, à condition d’avoir préparé le terrain.
Le Data Act régulateur en dur du cloud
Chez TF1+, où 35 000 heures de vidéo sont accessibles pour des millions de téléspectateurs, la discussion se déplace sur le terrain de la qualité de service et de la résilience. « Cinq minutes d’arrêt, c’est du chiffre d’affaires publicitaire qui ne reviendra pas », rappelle Thierry Bonhomme. Là encore, la réponse n’est pas idéologique : certaines briques (transcodage, réseau, CDN) restent opérées en propre, pour des raisons de performance et de coût ; d’autres services s’appuient sur des hyperscalers, mais le groupe a choisi de confier le stockage de ses assets vidéo à un acteur français, histoire de ne pas enfermer tout son patrimoine dans un seul écosystème et de garder un plan B crédible.
Selon Philippe Pujalte, directeur de la division Inetum, les entreprises de services numériques (ESN) jouent un rôle crucial en fournissant des compétences spécialisées là où une DSI n’a pas intérêt à maintenir des expertises très rares pour un faible volume de workloads. De plus, les ESN peuvent aider à décider, secteur par secteur, quelles fonctionnalités obtenir auprès de quel cloud.
L’émission se termine sur le volet réglementaire avec l’intervention de Léo Quentin, en charge de la régulation du cloud à l’Arcep. Ce dernier l’explique, le Data Act « apporte une régulation en dur du cloud », répondant aux « effets de lock-in » et à la « dépendance » causée par les grands acteurs du marché. Il instaure un « droit au changement de fournisseur » avec « préavis de deux mois », « continuité de service » et récupération des données. Léo Quentin précise que « l’interopérabilité est une barrière à la migration » et que « c’est toujours possible techniquement de migrer, c’est une question de coût ». Le texte impose « une obligation d’ouvrir des API » et que les fournisseurs « vont devoir se conformer à certaines normes » pour garantir l’homogénéité des services. Enfin, il limite les frais de transfert de données, qui devront être « facturés au coût réel » et seront « nuls à partir de 2027 » au niveau européen.
À LIRE AUSSI :
