Cloud

Les défis des datacenters durables à l’ère de l’IA générative

Par Marie Varandat, publié le 04 décembre 2024

Avec l’essor de l’IA, les datacenters sont plus sollicités que jamais et doivent se réinventer pour contenir l’empreinte environnementale du numérique. Refroidissement intelligent, récupération d’énergie, densification des serveurs… chaque innovation compte pour réduire l’impact écologique.

Dans un contexte où la demande en services numériques ne cesse de croître, la question de l’empreinte écologique des datacenters devient d’autant plus cruciale que l’essor de l’IA pose de nouveaux défis. Selon la société de conseil américaine Tirias Research, les seules requêtes de données générées par les applications d’IA générative pourraient entraîner une multiplication par 50 du nombre de charges de travail informatiques traitées dans le monde d’ici 2028. De son côté, Goldman Sachs Research estime que la consommation énergétique des datacenters pourrait croître de 160 % d’ici 2030, notamment à cause de l’IA générative.

En pratique, les grands providers de cloud, et plus globalement les hébergeurs, n’ont pas attendu les réglementations ni l’arrivée de l’IA pour entreprendre des démarches de réduction de l’empreinte environnementale du numérique. Pour preuve, le PUE (Power Usage Effectivness, ratio entre l’énergie totale consommée par le datacenter, et celle consom­mée par les seuls équipements informatiques) moyen des datacenters est passé de 2,5 en 2007 à 1,5 en 2023 selon le département recherche de la société Jones Lang LaSalle (JLL) ou encore l’Uptime Institute. Ce PUE varie néanmoins très fortement selon les datacenters et les pays. OVHCloud, qui en a toujours fait un cheval de bataille, affiche un PUE moyen de 1,28. Il en va de même du pionnier AWS qui présente aujourd’hui un PUE moyen d’environ 1,2. Les derniers datacenters Azure ouverts par Microsoft atteignent un PUE de 1,125. Google affiche désormais un PUE moyen de 1,09 sur tous ses datacenters. Petit à petit, les leaders du Cloud s’approchent de l’objectif « 1 », synonyme de perfection.

Engagés, mais peu transparents…

Le PUE n’est cependant qu’un élément dans la course à l’empreinte carbone. « Dès 2014, nous avons mis en place des objectifs clairs, tant en termes d’utilisation d’énergies renouvelables que d’efficience énergétique, en personnalisant la démarche pour chacun de nos datacenters en fonction des contraintes environnementales locales », explique Nicolas Divin, digital business strategy lead au sein d’Equinix France. Comme Equinix, la majorité des fournisseurs de cloud, et plus globalement des hébergeurs, ont entrepris des démarches, pour la simple raison que réduction de l’empreinte environnementale du numérique rime souvent avec réduction des coûts (économies en énergie, diminution de l’occupation au sol, etc.) et donc optimisation des marges.

Face aux législations récentes de lutte contre l’artificialisation des sols, des acteurs comme OVHCloud ont aussi développé des stratégies de reconversion de bâtiments existants. Ils évitent ainsi l’impact carbone lié à la construction. Et globalement, tous les acteurs ont une stratégie visant à privilégier les énergies renouvelables avec des écarts parfois considérables d’un datacenter à l’autre, car certains pays sont mieux lotis que d’autres en matière d’énergies décarbonées. À titre d’exemple, un géant français de l’aménagement de l’habitat a fermé ses datacenters en Allemagne pour les basculer dans le cloud en France afin de bénéficier d’un meilleur mixte énergétique et de réduire son empreinte carbone.

Caroline Desmaretz

Directrice des solutions numériques collaborateurs Nexity 

 Les cloud providers sont incapables de nous donner une image claire de l’empreinte associée à leurs services. »

Toutefois, l’entreprise en question ne sait pas estimer de façon précise l’impact de cette migration. De fait, ainsi que le souligne Caroline Desmaretz, directrice des solutions numériques collaborateurs à la direction des solutions et innovations numériques de Nexity, « les cloud providers sont incapables de nous donner une image claire de l’empreinte associée à leurs services. Ils s’engagent sur l’énergie verte, mais sans offrir de détails concrets sur les consommations spécifiques, ou encore de façon trop fragmentaire pour nous permettre de calculer notre propre empreinte du numérique. »

« Le passage au cloud présente des avantages indéniables, mais il pose aussi des défis considérables en termes de gestion de l’empreinte environnementale », confirme Richard Bury, directeur du programme numérique responsable d’EDF. « La difficulté réside principalement dans l’opacité des providers concernant l’emplacement des datacenters. Également et malgré une efficacité énergétique potentiellement supérieure aux datacenters internes, leur empreinte carbone peut être aggravée par des pratiques telles que la réplication excessive des données. À notre niveau, la maîtrise de ces impacts est rendue complexe par le manque de transparence des providers et la difficulté de mesure, ce qui complique la mise en œuvre d’une stratégie numérique responsable. »

Richard Bury

Directeur du programme numérique responsable d’EDF

 La difficulté réside principalement dans l’opacité des providers concernant l’emplacement des datacenters. » 

Climatisation : enjeu majeur des datacenters durables

Énergies vertes, réutilisation des bâtiments existants, densification des matériels… l’architecture des datacenters évolue aussi « pour relever le principal problème auquel ils doivent faire face, à savoir la climatisation », ajoute François Salomon, directeur France Activité Froid & Climatisation – Secure Power Division de Schneider Electric France. « Aujourd’hui, elle représente encore entre 30 % et 40 % de la consommation totale d’un datacenter, proportion variable selon l’architecture et l’emplacement géographique de l’installation. »

Afin de limiter les besoins en climatisation, et donc de réduire la consommation d’énergie et de ressources (dont l’eau notamment), les datacenters ont considérablement augmenté la température à laquelle ils peuvent opérer. Là où, autrefois, les installations devaient être maintenues à environ 25°C (2004), de nombreux progrès technologiques permettent aujourd’hui de faire fonctionner un datacenter à une température d’exploitation de 35°C.

Sur le plan technique, le refroidissement se pratique de plus en plus en utilisant l’air extérieur (free cooling) ou des méthodes adiabatiques (par évaporation de l’eau), la meilleure solution dépendant étroitement des conditions climatiques et des ressources en eau environnantes. « L’une des grandes révolutions dans ce domaine est l’adoption de systèmes de refroidissement avec une eau présentant des températures plus élevées qu’auparavant, typiquement entre 20°C et 30°C. Cette évolution est significative, car il y a encore dix ans, on dépensait beaucoup d’énergie dans le refroidissement de l’eau pour la maintenir à 10°C, indique Francois Salomon. Parallèlement, quand le climat s’y prête, le free cooling est l’une des pistes les plus prometteuses, car cette méthode permet de limiter le recours aux compresseurs et à la climatisation mécanique, réduisant d’autant la consommation d’énergie. »

« Dans des pays comme la Suède ou la Norvège, le free cooling est particulièrement efficace, confirme Nicolas Divin. En Espagne, en revanche, nous devons recourir à des solutions alternatives, comme le refroidissement adiabatique, l’air extérieur n’étant pas suffisamment froid. »

Quelle que soit la solution de refroidissement finalement retenue, les approches de type DCIM (Datacenter Infrastructure Management) peuvent renforcer la démarche : ce logiciel de gestion de l’infrastructure permet d’avoir une vue précise de la consommation de chaque élément du datacenter et de la température dans les différents emplacements. Dès lors, il est plus simple d’identifier les points chauds et d’ajuster la production informatique en conséquence, en déplaçant des applications d’un système à l’autre si nécessaire, ou en en coupant certains.

Multiplication des projets de récupération de l’énergie résiduelle

En complément de toutes ces initiatives, la récupération de la chaleur résiduelle immédiate (ou fatale) pour des usages de proximité est de plus en plus pratiquée par les grands opérateurs de datacenters. Ainsi, Amazon, Apple et Microsoft ont annoncé leur intention de connecter leurs principales installations aux systèmes de chauffage urbain en Irlande, au Danemark et en Finlande. Google étudie aussi de son côté les possibilités de récupérer la chaleur de ses datacenters européens. Plus avancé, Meta utilise déjà l’excès de chaleur pour chauffer la ville d’Odense, au Danemark : 11 000 foyers sont « chauffés au datacenter ». De son côté, Equinix a mis en place un système pour récupérer la chaleur fatale et la réutiliser pour chauffer le centre aquatique olympique de Saint-Denis construit pour les JO 2024, et des logements avoisinants. « Cette initiative permet non seulement de réduire le PUE de nos installations, mais aussi de créer un impact positif pour la communauté locale, renforçant ainsi l’acceptabilité des projets industriels », souligne Nicolas Divin.

En pratique, cette approche consistant à utiliser les calories générées par les installations informatiques n’est pas nouvelle : depuis une dizaine d’années, le datacenter de la banque Natixis de Marne-la-Vallée chauffe le centre aquatique intercommunal de Val d’Europe. De la même façon, la société francilienne Qarnot, qui propose de la puissance de calcul haute-performance, profite de l’énergie émise par ses installations pour chauffer bureaux et logements sociaux depuis 2010.

Le phénomène pourrait s’accélérer encore sous la pression réglementaire. Adoptée en 2012 et révisée en 2023 dans le cadre du Paquet Climat, la directive européenne sur l’efficacité énergétique, également appelée DEE (ou EED en anglais) impose à toute nouvelle installation ou rénovation substantielle d’un datacenter d’une puissance totale supérieure à 1 MW de valoriser la chaleur fatale (sauf impossibilité technique ou économique). Parallèlement, tous les datacenters d’une puissance supérieure à 500 kW doivent, depuis le 15 mai 2024, mettre annuellement à disposition du public des informations relatives à leur performance énergétique (superficie au sol du datacenter, puissance installée, consommation d’énergie, utilisation de chaleur fatale…). Toujours à l’échelle européenne, le projet ReUseHeat se concentre sur la récupération de la chaleur résiduelle provenant de diverses sources urbaines, dont les datacenters. Afin de surmonter les obstacles techniques et non techniques, quatre démonstrateurs ont été mis en place à Brunswick (Allemagne), Nice (France), Madrid (Espagne) et Bucarest (Roumanie) avec pour objectif de consolider les retours d’expérience dans un manuel de conseil, incluant des modèles économiques innovants ou encore des solutions technologiques efficaces.

En France, la stratégie Énergie-Climat ambitionne de multiplier par cinq la récupération de chaleur fatale livrée dans les réseaux, et de valoriser 25 à 29 TWh de chaleur fatale d’ici 2035 (environ 6 % de la production nette nationale). Dans cette perspective, des mesures incitatives comme le tarif réduit de la TICFE (Taxe Intérieure sur la Consommation Finale d’Électricité) introduit par la loi REEN devraient aussi contribuer à la réduction de l’empreinte carbone des datacenters.

Optimiser l’exploitation des ressources

Si l’IA – et tout particulièrement l’IA générative – est considérée comme un facteur d’aggravation de l’empreinte environnementale des datacenters, elle pourrait aussi contribuer à une meilleure gestion des ressources. De fait, on voit apparaître de plus en plus de mécanismes d’automatisation boostés à l’IA qui permettent d’ajuster la consommation des ressources au plus juste, en fonction des besoins réels à un instant T.

Parallèlement, l’hyperconvergence s’impose de plus en plus comme une alternative prometteuse en interne pour toutes les entreprises qui veulent des datacenters « élastiques » et durables, ainsi que le souligne François Manière, directeur technique de l’ESAIP, École d’ingénieurs angevine (49) qui a remplacé tous ses serveurs existants par une infrastructure hyperconvergée : « Les machines sont désormais occupées entre 40 et 50 % de leur capacité au lieu de 5 à 10 % auparavant. Grâce à cette évolution, nous avons réalisé un gain de 67 400 kWh par an sur la consommation des serveurs. » Dotée d’un parc informatique de 850 PC, cinq serveurs physiques, 95 machines virtuelles et plusieurs plateformes pédagogiques, l’école a également remplacé les disques HD par des SSD sur 350 machines, réduisant ainsi sa consommation énergétique de 3 500 kWh supplémentaires par an. « Parallèlement, nos besoins en climatisation sont aussi réduits, nous devrions consommer un tiers de moins par an, soit l’équivalent de 26 000 kWh », ajoute François Manière. Même approche à la Cnaf qui a modernisé ses infrastructures en s’appuyant sur les solutions de Nutanix. « Nous avons engagé notre démarche durable dès 2015, date à laquelle nous avons aussi fait le choix de la plateforme hyperconvergée de Nutanix. L’hyperconvergence favorise une réduction du matériel utilisé, ce qui se traduit par une réduction de la consommation énergétique et des ressources abiotiques », indiquait Nicolas Poulain lorsqu’il était coordinateur technique au sein du département d’ingénierie technique de la Cnaf.

« De plus, la plateforme Nutanix permet de suivre précisément les consommations énergétiques », précise Julien Fiette, CEO d’ITinSell, éditeur, intégrateur et hébergeur français de solutions logicielles pour la supply chain qui l’a également adoptée pour ses infrastructures. « Or, la plupart de nos clients ont désormais besoin de ces métriques pour réaliser leur bilan carbone. » C’est clair : au moins autant que les économies à réaliser, la pression réglementaire va sans doute redéfinir l’avenir du datacenter durable. Un avenir qui se jouera sur le terrain de la transparence avec des métriques précises, fiables et suffisamment granulaires pour permettre aux entreprises de remplir facilement leurs obligations légales en matière de sobriété numérique.



DCEM, la nouvelle alternative européenne au PUE pour mesurer l’efficience des datacenters

Traditionnellement, l’efficacité énergétique d’un datacenter se mesure en PUE (Power Usage Effectivness), indicateur élaboré en Amérique du Nord dans les années 2010. Mais en juin dernier, l’organisme de normalisation ETSI (Institut européen des normes de télécommunications) a validé une alternative qui se veut plus globale, granulaire et inclut la notion de réutilisation de la chaleur dans le calcul de l’efficience. Baptisée DCEM (Data Center Energy Management), cette nouvelle norme est le fruit de plus de deux ans de travail du Club des Responsables d’Infrastructure et de Production. Reste à convaincre les grands cloud providers qui n’ont cessé ces dernières années de travailler leur PUE de bien vouloir accepter de se mesurer sur le terrain du DCEM…


Optimisation des usages : un impératif trop souvent négligé

François Salomon, directeur France Activité Froid & Climatisation – Secure Power Division de Schneider Electric France

« Le secteur des datacenters a réalisé des progrès significatifs en matière de réduction de son empreinte carbone, notamment grâce à des innovations dans la climatisation et le refroidissement. Cependant, le chemin vers une empreinte écologique réduite passe non seulement par des avancées technologiques, mais aussi par une meilleure gestion des usages informatiques et une sensibilisation accrue des utilisateurs. Typiquement, a-t-on réellement besoin de datacenters qui fonctionnent en 24/7 ? Dans certaines entreprises, la réponse est clairement non. Nous devons élargir notre réflexion et inclure une éducation accrue des utilisateurs finaux et des informaticiens, afin qu’ils soient conscients de l’impact environnemental de leurs actions, notamment dans le cadre de la gestion des charges IT. La transition écologique des datacenters est un enjeu de long terme qui nécessitera des efforts continus. »


Des techniques de refroidissement qui évoluent

Les datacenters utilisent diverses techniques de refroidissement pour maintenir une température optimale et éviter la surchauffe des équipements informatiques. Le classique refroidissement par air basé sur des unités de climatisation (CRAC) ou d’eau glacée (CRAH), est désormais souvent combiné à un système d’allées chaudes et froides séparées. Le « free cooling » utilise directement l’air extérieur dans les pays froids. Le refroidissement adiabatique (ou refroidissement par évaporation) combine évaporation d’eau et refroidissement par air.

Autre approche, le refroidissement par liquide direct, utilisant de l’eau ou d’autres liquides de refroidissement, est préféré pour les équipements à haute densité. Pour des besoins encore plus intenses, le refroidissement par immersion plonge les serveurs dans des liquides diélectriques. Une variante par immersion en deux phases utilise un liquide qui se transforme en gaz en évacuant la chaleur. Ces techniques sont souvent combinées pour maximiser l’efficacité énergétique et la performance thermique.


La consommation électrique s’envole avec l’IA générative

Goldman Sachs Research a publié une série de rapports dans lesquels il rappelle que l’Agence internationale de l’énergie estime qu’une requête ChatGPT nécessite 2,9 Wh d’électricité, contre 0,3 pour une recherche Google. Partant de ce principe, le cabinet d’analyse prédit une augmentation globale de la consommation électrique des datacenters due à l’IA de l’ordre de 200 TWh par an entre 2023 et 2030. D’ici 2028, ses analystes s’attendent à ce que l’IA représente environ 19 % de la demande d’énergie des datacenters.


Des techniques de refroidissement qui évoluent

Les datacenters utilisent diverses techniques de refroidissement pour maintenir une température optimale et éviter la surchauffe des équipements informatiques. Le classique refroidissement par air basé sur des unités de climatisation (CRAC) ou d’eau glacée (CRAH), est désormais souvent combiné à un système d’allées chaudes et froides séparées. Le « free cooling » utilise directement l’air extérieur dans les pays froids. Le refroidissement adiabatique (ou refroidissement par évaporation) combine évaporation d’eau et refroidissement par air.

Autre approche, le refroidissement par liquide direct, utilisant de l’eau ou d’autres liquides de refroidissement, est préféré pour les équipements à haute densité. Pour des besoins encore plus intenses, le refroidissement par immersion plonge les serveurs dans des liquides diélectriques. Une variante par immersion en deux phases utilise un liquide qui se transforme en gaz en évacuant la chaleur. Ces techniques sont souvent combinées pour maximiser l’efficacité énergétique et la performance thermique.

Dans l'actualité

Verified by MonsterInsights