Galderma surveille les coûts de son infrastructure data avec FinOps

Data / IA

Galderma surveille les coûts de son infrastructure data avec FinOps

Par Alain Clapaud, publié le 04 avril 2023

Présent dans une quarantaine de pays, Galderma est positionné sur la médecine esthétique, la prescription et la parapharmacie. Son architecture data doit porter l’activité de l’entreprise et son expansion sur de nouveaux marchés.

Lors de la séparation avec sa maison mère en 2019, les équipes informatiques de Galderma ont dû s’affranchir de leur dépendance à l’IT du groupe.
Bertrand Champlois, manager du centre de compétence Analytics BI & Reporting, revient sur ce défi : « Nous avons quatre ERP différents, des systèmes hétérogènes qui ne sont pas directement interconnectables. Nous avions donc une problématique de consolidation d’informations et d’harmonisation. Notre stratégie a été de passer en full cloud : cela apporte l’avantage de pouvoir s’ouvrir à tous les systèmes, offre une grande flexibilité et énormément de valeur pour les métiers. »

L’architecture mise en place repose sur Azure Data Lake Storage Gen2, un data lake alimenté par une « landing zone » où convergent les données issues des applications de l’entreprise pharmaceutique. Des processus Azure Data Factory et SQL Pipeline alimentent le datawarehouse Snowflake, lui-même exploité par les métiers via les outils Databricks et Microsoft Power BI.

Un suivi FinOps rapidement mis en place

Afin de garder les coûts sous contrôle, l’équipe projet a rapidement lancé une initiative FinOps. L’objectif initial du projet était de surveiller les coûts, notamment pour identifier rapidement des pics de consommation, mais aussi de les segmenter entre les usages du corporate et ceux des sites locaux. « Il y avait deux challenges importants sur le plan FinOps », résume Joël Da Costa, senior manager chez Advanced Schema, prestataire chargé du projet. « D’une part à cause de l’hétérogénéité des types de facturation, car certains composants de l’architecture sont en “pay as you use” (à la consommation) et d’autres en mode capacitaire, c’est-à-dire un paiement au mois ou à l’année sur un volume. D’autre part parce que cette plateforme, quoique centralisée et globale, répond à des besoins corporate autant que locaux. »


À LIRE AUSSI :


Pour une plateforme cloud, la solution « by design » de tagger toutes les ressources consommées (voir encadré) est simple à mette en œuvre, mais le tagging doit tenir compte du fait qu’il s’agit d’une plateforme transversale, partagée entre plusieurs business units : « Le principe d’une cloud data platform centralisée est de pouvoir partager la donnée. Nous avons complété l’approche “by design” native par un modèle d’allocation des coûts pour les composants partagés. »
Ces clés d’allocation sont appliquées à Snowflake et au data lake Azure. Il peut s’agir soit de clés fixes, comme des pourcentages définis par l’IT ou la direction financière, ou des KPI liés à l’usage.

Bertrand Champlois,
manager du centre de compétence Analytics BI & Reporting chez Galderma

« Même sans refacturation auprès des entités, FinOps nous permet de leur présenter des chiffres de consommation
fiables et précis, contrairement à la situation précédente en on-premise.
»

« Une solution comme Snowflake gère plusieurs KPI et plusieurs types de coûts : des coûts récurrents, des coûts d’infrastructure cloud et des coûts d’usage liés à la consommation, explique Joël Da Costa. Nous avons fait le choix de n’utiliser qu’un seul KPI d’usage pour ces composants partagés.»

Pour le data lake, le KPI porte sur le volume de stockage, lequel représente 90% du coût global. Pour le data warehouse Snowflake, c’est la consommation de ressources de calcul qui a été choisie.

« Il faut intégrer cette dimension FinOps dès la construction et le découpage fonctionnel du data lake et du data warehouse, pour se ménager la capacité de répartir les coûts. Par exemple, si on ne crée qu’un seul virtual warehouse Snowflake, il ne sera pas possible de savoir qui utilise les capacités de calcul. »
Concrètement, sur le data lake, l’organisation par top folders a permis d’identifier les différents projets, tandis que sur Snowflake, le recours à des virtual warehouses dédiés par usages a résolu le problème.

Pour les ressources dédiées à un projet, un Azure Data Factory (ADF) est instancié pour chacun d’entre-eux. Cet ADF est tagué en fonction de son affectation. Une règle (policy) Azure mise en place par l’équipe FinOps impose qu’à chaque création de ressource, l’administrateur doit placer un tag qui associe à la ressource un périmètre fonctionnel, ou un tag spécifique qui indique qu’il s’agit d’une ressource partagée selon un des deux KPI

Gagner en autonomie sur la facturation et l’évaluation des coûts

L’équipe projet d’Advanced Schema travaille désormais sur un système de collecte de logs techniques récupérés sur Azure Log Analytics pour assurer la traçabilité des données de fonctionnement. « Ce système va aussi nous aider à mesurer les usages de la plateforme, précise Joël Da Costa. Tout ce volet de reporting automatisé, encore en cours de construction, a pour but de remonter les extractions de facturation depuis Azure, et d’exécuter des requêtes spécifiques sur les API du data lake et les API de Snowflake pour récupérer les consommations. »

Galderma a choisi une stratégie data « full cloud » pour mieux partager certaines données entre business units.

Elle pose toutefois la question du contrôle des coûts et de leur répartition dans l’organisation.

Bertrand Champlois apprécie pour sa part d’avoir rendu sa DSI autonome et pertinente en matière de facturation et d’évaluation des coûts du cloud au niveau mondial. « Nous avions un système data on-premise vieillissant, extrêmement coûteux. Suite à cette migration vers le cloud, nous avons voulu rationaliser nos coûts, à commencer par bien les mesurer, ce que nous avions du mal à réaliser onpremise avec des systèmes et des licences déployées à travers le monde. »

Cet objectif désormais atteint, la DSI de Galderma cherche désormais à affiner ses clés de répartition qui sont essentiellement liées aux domaines d’activité de l’industriel : le marketing, la finance et la supply chain. « Nous fournissons à ces entités leurs données d’utilisation de la production. Ce sont des informations importantes car elles remontent au top-management et orientent leurs futurs investissements. »

Et s’il n’est pas à l’ordre du jour d’instaurer un cashback généralisé de ces coûts, ces informations alimentent les négociations entre la DSI et les métiers pour établir les lignes de crédits allouées à la DSI corporate.


Les deux approches FinOps

Deux approches sont possibles dans la mise en place d’une stratégie FinOps :

* La première, baptisée « FinOps by design » consiste à tagger l’ensemble des ressources. Il s’agit d’identifier leur appartenance à un projet, un programme, une business unit, une division ou filiale de l’entreprise. Chaque ressource est clairement identifiée comme appartenant au patrimoine applicatif
(un projet, un pays, un marché). Ces tags permettent une réaffectation simple des coûts au niveau de granularité souhaité.

* L’autre approche possible, c’est le modèle d’attribution. Les ressources sont partagées, et le total des coûts est réparti sur les entités en fonction d’une clé d’allocation. Cette démarche présente l’intérêt d’être agnostique du cloud provider.


LE PROJET EN QUELQUES CHIFFRES

12 mois entre le cadrage du projet et la mise en œuvre de la cloud data platform

1 à 2 To de volumétrie cible pour le data lake

500 à 1000 utilisateurs cibles


L’ENTREPRISE

Activité : Entreprise pharmaceutique
Effectif : 5700 collaborateurs (90 pays)
CA : 3,4 Md$ (2021)


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights