Les études confirment depuis plusieurs années l’engouement des entreprises et de leurs DSI pour le cloud hybride, plébiscité à plus de 80 % !

Cloud

Cloud hybride : comment déployer en 6 points votre stratégie

Par La rédaction, publié le 02 janvier 2023

Les coûts du Cloud hybride toujours difficiles à estimer

Les raisons qui poussent l’entreprise et sa DSI à opter pour une hybridation de leurs environnements IT sont souvent financières. Pourquoi pas après tout. Mais les promesses sont-elles tenues ? Rien n’est moins sûr d’autant que l’analyse des coûts reste souvent partielle. Et que, de l’autre côté, l’agilité tarifaire des providers n’a, elle, rien d’une légende.

La motivation financière n’est jamais bien loin dans des DSI qui décident d’injecter un peu ou beaucoup de cloud public dans leur mix de ressources, ou de faire jouer la concurrence entre deux clouds providers publics. « Même si les DSI ont pu dire que c’était pour améliorer le service rendu au business, la question du prix était au cœur de leur démarche », concède ainsi Agnieszka Bruyère, ex vice-présidente des activités cloud chez IBM EMEA et VP Cloud Growth & Public Sector chez Oracle.

Il faut dire que le saut est tentant. Comme le rappelle Marc Bernis, account strategist chez Micro Focus« les grands hyperscalers ont tous, à un moment ou à un autre, acheté des parts de marché en pratiquant une tarification très agressive. Quitte à remonter ensuite les prix progressivement ».

Seconde difficulté, la comparaison des factures. Certes, un « lift and shift », de par la persistance de ce qui est hybridé sans transformation, permet de vérifier a priori que la nouvelle situation est moins onéreuse que la précédente. L’objectif d’une réduction du coût d’exploitation est justement central dans la démarche, rappelle Daniel Gonzalez, directeur des alliances et des solutions chez l’intégrateur Insight. Encore faut-il avoir une connaissance exhaustive de l’ensemble des coûts concernés, ainsi que des services délivrés. Par exemple, la suppression d’un ETP à la production peut sembler facile à prendre en compte. Mais si ce même collaborateur était également disponible en support aux utilisateurs et aux développeurs, il ne faudra pas oublier d’intégrer dans la comparaison le coût de cette assistance… ou de sa disparition.

La comparaison est également rendue délicate par l’évolution des services consommés et la configuration des environnements. Très vite, en général, la disponibilité d’un catalogue de services plus important et les facilités d’accès à des ressources de calcul ou de stockage entraînent de nouvelles pratiques chez les utilisateurs, rendant complexes les rapprochements, tant les deux périmètres – l’ancien et le nouveau – sont devenus différents.

Une vraie gouvernance, qu’on l’appelle FinOps ou non

L’objectif n’a pas changé. « On retrouve le métier bien connu de l’asset management, convient Marc Bernis. Mais avec un besoin d’agilité et de réactivité énorme, car les dérives coûtent très cher. Or dans les grandes entreprises, il n’est pas rare de faire appel à plusieurs dizaines de milliers de machines virtuelles, et autant de services. »

Impossible, en effet, de tout suivre sans une bonne dose d’automatisation et de gouvernance. Des outils existent, heureusement, y compris ceux fournis par les providers, pour organiser les mises en pause automatiques de services, les décommissionnements à date ou après un délai d’inutilisation, ou encore les approbations de demandes de machines.

Bruno Picard, ex directeur technique chez Nutanix et actuel GPS Tech Lead chez Microsoft partage l’objectif : « Le cloud, ce n’est jamais qu’un autre mode de consommation des ressources, à l’usage et avec un catalogue. Qu’on aille les chercher à l’extérieur ne pose pas problèmes. Toutefois, comme sur le on-premise, il y a beaucoup à gagner en optimisant le dimensionnement de ces ressources et leur allocation. » L’éditeur propose d’ailleurs… son propre module de calcul des coûts des machines virtuelles.

Trop d’outils existent, donc, avec un scope limité. Et il faut de la méthode pour les agencer efficacement. Certains parlent de gouvernance. D’autres ont préféré mettre en avant un nouveau terme, à savoir FinOps. Comme d’autres acteurs spécialistes historiques de l’optimisation de la consommation d’actifs logiciels, Crayon France a naturellement pris la vague et se pose en accompagnant agnostique. Giorgio Vitalone, cloud solutions specialist, en précise les tenants : « Il faut appréhender les nouveaux modèles Opex, mais aussi dresser une cartographie complète des process, des droits, des refacturations, etc. »

Aurélien Kiener, lui aussi spécialiste des solutions cloud, mais chez Digora, poursuit sur cette idée : « Nous militons pour le design par Finops. Sinon, c’est le risque d’une dérive complète des coûts ». Pour lui, pas d’ambiguïté : quelle que soit la taille de l’équipe FinOps créée, quel que soit son rattachement, sa gouvernance ne peut se passer de l’intervention de la DSI. Car « c’est toujours très complexe de comparer les prix. Il y a des coûts cachés de part et d’autre ».

C’est encore plus vrai lorsque, suite à une première étape de lift and shift, l’hybridation se déploie pleinement, avec des migrations d’applications voire, ultérieurement, leur modernisation avec de la conteneurisation ou le passage à des architectures à base de micro-services. On ne parle alors tout simplement plus du même système d’information.

Un risque de dérapage

« Le risque d’une augmentation exponentielle de la facture se trouve au niveau de l’IaaS ou du PaaS, rajoute Bruno Picard. Côté services et SaaS, la stabilité est plus facile à atteindre ». Ne serait-ce que parce qu’il est plus facile d’interdire l’accès à un simple service que de prendre le risque de décommissionner une application ou d’éteindre une machine virtuelle. Marc Bernis nous confie cette anecdote, vécue chez Micro Focus : « Il est arrivé que des facturations de plusieurs dizaines de milliers de dollars apparaissent, sans que l’on sache qui utilisait les machines concernées. Ni même si on les utilisait encore. Les seules réponses que l’on obtenait, c’était Ce n’est pas moi ! »

Pour faire face, attention à ne pas se montrer sur-réactif, nous alerte-t-il. Les virages sur l’aile intempestifs seraient-ils contre-productifs ? Bruno Picard le pense : « En mode hybride comme multicloud, il n’y pas de justification à pratiquer des ajustements trop fréquents en migrant des ressources d’un environnement à un autre. Les gains obtenus seront contrebalancés par le coût des ressources expertes utilisées pour les réaliser. » Sans compter les frais et difficultés liés à la réversibilité des données notamment…

Un processus d’optimisation encore empirique

L’idéal serait de confier l’automatisation de ces ajustements à des outils spécialisés. Mais le mieux est, pour le moment encore, l’ennemi du bien. Certes, des consoles existent pour optimiser, de façon plus ou moins automatique, la facture liée à la consommation des ressources, voire de créer des scénarios d’évolution. Mais l’offre est globalement morcelée et non aboutie. « Tout ceci demande une grande maîtrise à la fois des contrats et de la technique », avance Giorgio Vitalone. En cause, en effet, l’opacité et l’évolution constante des propositions commerciales des cloud providers. Mais également l’évolution des besoins des utilisateurs, des métiers, qui rend difficile une planification précise. Une stratégie FinOps, toute bénéfique qu’elle soit, aura toujours du mal à prendre en compte des priorités tactiques changeantes pour lesquelles la fin justifie les moyens. FRANÇOIS JEANNE

Dans l'actualité

Verified by MonsterInsights