Green IT

Ekwateur capitalise sur les services AWS pour réduire sa pollution numérique

Par Marie Varandat, publié le 23 septembre 2020

Associée à l’optimisation financière, le concept de FinOps peut aussi être un excellent tremplin pour améliorer une stratégie GreenIT. Illustration par l’exemple avec Ekwateur, fournisseur d’énergie renouvelable.

Par Marie Varandat

Fondé il y a quatre ans, Ekwateur est un fournisseur de gaz et d’électricité renouvelables qui s’adresse principalement aux particuliers. Mais la société compte également quelques entreprises et institutionnels parmi ses clients, dont notamment la plupart des ministères français ou encore Météo France ou l’IRSN (Institut de Radioprotection et de Sureté Nucléaire). Très dynamique, elle totalise 240 000 clients aujourd’hui et table sur un chiffre d’affaires de plus de 160 millions d’euros en 2020.
En trois ans à peine, la société est ainsi devenue le 5ème fournisseur d’Énergie en France.

Le cloud pour une meilleure gestion des ressources et aller plus vite

Engagée dans la préservation des ressources de la planète, l’entreprise s’est imposée dès le départ des règles très strictes en matière de système d’information. « Utiliser une ressource uniquement quand elle est nécessaire fait partie de notre culture : on installe des thermostats chez nos clients pour leur permettre de se chauffer uniquement quand ils en ont besoin. Opter pour un hébergement de notre système d’information dans le cloud nous semblait donc une évidence. En 2016, AWS était le plus avancé du point de vue technologique. La société s’était aussi engagée à alimenter ses datacenters avec des énergies renouvelables à horizon 2025 en construisant ses propres champs d’éoliennes et parcs solaires. C’était donc un choix logique, conforme à notre stratégie de GreenIT », explique Jean-Michel Blanc, CTO d’Ekwateur.

Disposant une équipe IT alors réduite à 4 personnes, Jean-Michel Blanc était aussi contraint par un budget limité : « Lors de la création de la société, nous avions un budget de 500 000 euros et notre priorité n’était pas d’investir dans des serveurs qui allaient de surcroit occuper notre espace. De plus, notre valeur ajoutée n’était ni dans la conception ni dans la maintenance d’une infrastructure, mais dans les services proposés à nos clients. Faute d’ERP adapté à notre vision, nous avons préféré concentrer nos faibles ressources sur le développement applicatif. Et là encore le cloud s’avérait plus efficace, car il proposait en 2016 beaucoup plus de possibilités d’automatisations que les solutions de déploiement d’une infrastructure interne ».

Une architecture fonctionnelle conçue pour la haute disponibilité

Petite entreprise mais avec de vastes ambitions, Ekwateur a vu grand dès le départ en donnant naissance à une architecture fonctionnelle qui lui donnait beaucoup de marge de manœuvre. Son système d’information a en effet été découpé en une myriade de petites applications (souscription, site, espace client, facturation, CRM, etc.) fonctionnant de manière autonome et qui échangeaient des informations entre elles en Web Services REST. « Chaque application avait été conçue comme une sorte de macro-service, chaque service étant responsable de ses propres données. L’idée sous-jacente était de pouvoir monter en charge facilement. C’est pourquoi, nous avons aussi déployé chaque application et sa base de données sur deux serveurs virtuels dédiés avec un loadbalancer entre les deux pour faire de l’autoscaling et ainsi bénéficier d’une très autre disponibilité », explique Jean-Michel Blanc.

Accompagné par des partenaires spécialistes d’AWS, le CTO d’Ekwateur reconnait avoir fait au plus simple avec cette première version de son système d’information. Mais très rapidement il réalise que cette architecture, hébergée en VPC (Virtual Private Cloud) pour garantir le cloisonnement et la sécurité dans un environnement mutualisé, monopolisait plus de ressources que nécessaire.

« Comme dans n’importe quel système d’information, certaines applications sont plus utilisées que d’autres. En dédiant un serveur à chaque application, nous monopolisions des ressources qui n’étaient pas beaucoup utilisées. Nous avons donc revu notre copie en encapsulant nos macro-services dans des containers afin de pouvoir en faire tourner plusieurs sur un seul serveur tout en conservant les avantages de notre découpage fonctionnel », poursuit Jean-Michel Blanc.

Du macro-service au container pour optimiser la consommation

Ekwateur a aussi profité de cette évolution pour mettre en place une chaine CI/CD afin d’aller plus vite tout en s’assurant de la qualité des livraisons.  Fidèle à ses principes, la société s’est appuyée sur le service EKS (Elastic Kubernetes Service) d’AWS.

« EKS propose un Kubernetes entièrement managé, précise Jean-Michel Blanc. Nous pouvons ainsi nous concentrer sur nos développements plutôt que de perdre du temps sur l’administration d’une brique d’infrastructure. En utilisant le service AWS, nous sommes également plus réactifs pour équiper les nouveaux développeurs : pas besoin d’installer et de configurer leurs outils sur leur poste de travail ou même de réaliser des compilations en local. Enfin, Kubernetes étant un standard du marché, nous préservons notre indépendance, nos containers pouvant à tout moment être déplacés vers une autre plateforme ou cloud ».

Le CTO d’Ekwateur est, en revanche, moins convaincu par la technologie Serverless : « Nous utilisons certaines fonctionnalités d’AWS Lambda pour notamment optimiser notre consommation des ressources. Tous nos serveurs de tests, par exemple, sont automatiquement arrêtés par les services Lambda quand ils ne sont pas utilisés. Nous testons aussi les fonctionnalités Serverless sur un de nos sites, car cette technologie s’inscrit complètement dans notre culture : ne solliciter les applications que lorsque c’est nécessaire afin de diminuer les ressources utiles au fonctionnement de celles-ci. Mais pour l’instant, l’idée est plus d’acquérir la compétence, car le service repose sur des technologies propriétaires qui vont à l’encontre de la philosophie que nous avons cherché à mettre en place avec les containers ».

Débutée courant 2019, la migration des macro-services vers des containers Docker devrait être terminée fin 2020. Pour l’instant, la société a conservé le découpage fonctionnel existant. Mais elle envisage déjà d’aller vers un découpage plus fin afin renforcer l’optimisation de la consommation des ressources. « Il faut trouver le bon équilibre, précise toutefois Jean-Michel Blanc. Si on découpe trop, on finit par créer une IT ‘spaghetti’, trop complexe à gérer par la maintenance et l’exploitation ».

Pilotage global des trois composantes d’une véritable stratégie FinOps

Pour mener à bien cette évolution vers un système d’information toujours plus vert, Jean-Michel Blanc rêve d’un tableau de bord capable de regrouper tous les indicateurs de suivi de la consommation. En attendant que le marché FinOps donne naissance à cet outil, il doit se contenter d’agréger lui-même les informations émises par ses différents systèmes. « Nous compilons les données fournies par AWS à celles de nos outils de monitoring interne, explique-t-il. Nous suivons également les données de performance : elles constituent d’excellents indicateurs pour savoir quand il faut réduire ou augmenter les ressources ».

Grâce à ce dispositif qui permet d’ajuster en permanence la consommation des ressources au besoin, Ekwateur réduit non seulement sa pollution numérique, mais également ses coûts IT tout en garantissant des performances optimales à ses clients et partenaires. « Une stratégie FinOps ne peut se résumer à seule composante financière, estime le CTO d’Ekwateur. En réalité, il faut trouver le meilleur compromis entre performances et coûts afin de parvenir à une consommation optimisée des ressources ».

En attendant, cette stratégie porte ses fruits. Grâce à l’arrêt automatique des serveurs mis en place en 2018 et piloté par les services de Lambda, la société économise 4 800 heures par an de ressources énergétiques. Parallèlement, sa nouvelle politique d’archivage, visant à stocker uniquement ce qui est utile et nécessaire, lui a permis de réduire ses besoins en stockage de pratiquement 70%. « Et, plus globalement, cette gestion optimisée de l’infrastructure technique nous permet de gérer 240 000 clients à ce jour, par rapport à l’an passé où nous gérions moins de 100 000 clients. Pour autant, nous n’avons pas multiplié par 2,5 le nombre de serveurs utilisés sur nos environnements », conclut le CTO d’Ekwateur.


Retrouvez sur ITforBusiness.fr, notre série « RSE & GREEN IT » :

Episode 01 : Mesurer l’empreinte environnementale du numérique
Episode 02 : Une IT plus responsable grâce à l’écoconception
Episode 03 : Embarquer les utilisateurs dans une démarche Green IT
Episode 04 : Green IT, une source d’économies et d’innovation
Episode 05 : Stratégie GreenIT : Bien peser le choix du matériel
Episode 06 : Maîtriser la fin de vie de son matériel IT
Episode 07 : La société de la Tour Eiffel fait confiance à Sextant pour optimiser son efficacité énergétique
Episode 08 : 25 mesures sénatoriales pour une société numérique plus verte
Episode 09 : Le dur métier des DSI de « smart city »
Episode 10 : Un algorithme pour optimiser l’éco-conception d’un site

Dans l'actualité

Verified by MonsterInsights