Green IT
TOP500 : L’Europe fait son entrée officielle dans l’ère exascale
Par Laurent Delattre, publié le 18 novembre 2025
Record d’exaflops, course à la sobriété, ARM en embuscade et écosystème européen en pleine ascension : le TOP500 de Novembre des HPC les plus puissants de la planète ressemble à une bataille totale entre performance, efficience et souveraineté numérique. L’arrivée du JUPITER dans l’exascale illustre la maturité d’un modèle européen misant sur la modularité et des « AI factories » souveraines.
La 66ᵉ édition du classement TOP500, dévoilée hier soir, consacre toujours le même podium (avec les trois HPC américains El Capitan en tête suivi de Frontier et Aurora)et l’ère de l’informatique exascale. Néanmoins, cette 66ème édition a une saveur particulière marquée par un véritable évènement pour l’univers IT : l’entrée officielle de l’Europe dans l’ère Exascale. Le JUPITER devient officiellement le premier système exascale européen, propulsant enfin l’Europe dans le club très fermé des machines dépassant l’exaflops en performance Linpack.
Dans le même temps, le classement GREEN500 confirme une autre bataille tout aussi stratégique : celle de la frugalité énergétique, dominée par une nouvelle génération de systèmes BullSequana XH3000 à base de NVIDIA Grace Hopper, dont plusieurs installés… en Europe.
TOP500 & GREEN500 : deux baromètres du HPC moderne
Le TOP500 existe depuis 1993. Deux fois par an, il classe les 500 supercalculateurs les plus puissants du monde sur un critère simple, mais impitoyable : leur performance mesurée par le benchmark HPL (High Performance Linpack), à base de calculs en double précision 64 bits. Il permet à l’écosystème IT et celui de la Recherche de suivre dans le temps les grandes tendances du calcul intensif en matière de performance pure, mais aussi d’architectures, d’accélérateurs, d’interconnexions sans oublier une dimension géopolitique en mettant en avant les dominations régionales. Malheureusement, la Chine est volontairement sortie de ce comparatif et n’y participe plus, laissant un grand trou noir autour non seulement de la performance de leur HPC mais également de leur entrée dans l’ère exascale.
L’autre classement publié en parallèle, le GREEN500, lui, établit à la même fréquence un classement non plus de la puissance brute, mais de la performance par watt, mesurée en gigaflops par watt sur le même benchmark Linpack. Il met en lumière les systèmes capables de délivrer un maximum de puissance de calcul pour un minimum d’énergie, un paramètre devenu désormais (à l’ère de l’IA) aussi stratégique que les flops eux-mêmes.
Trois ans de course à l’exascale
L’« exascale » désigne les systèmes capables de dépasser 10¹⁸ opérations en virgule flottante (sur 64 bits) par seconde. Pour les communs des mortels, cela signifie que les machines sont capables de réaliser un milliard de milliards (1 000 000 000 000 000 000) d’opérations les plus complexes en une seule seconde !
C’est un seuil autant symbolique qu’industriel. Il marque un changement d’échelle pour les simulations climatiques, la conception de matériaux, le nucléaire, mais aussi pour l’IA à très grande échelle (et on parle ici davantage d’entraînement de modèles que d’inférence).
L’histoire officielle de l’exascale, telle que racontée par le TOP500, démarre en juin 2022 avec la mise en opération du Frontier (du Oak Ridge National Laboratory dans le Tennessee). Il fut suivi début 2024 par l’Aurora de l’Argonne National Laboratory (dans l’Illinois) dont la construction avait débuté en juin 2023 et enfin du El Capitan du Lawrence Livermore National Laboratory (en Californie) devenu opérationnel en novembre 2024, mais officiellement inauguré en janvier 2025.
Depuis 2022, les USA sont officiellement la seule nation à disposer de monstres exaflopiques (on suppose que la Chine en dispose également depuis à peu près la même date mais il n’en existe aucune preuve officielle).
Mais ce temps est révolu. Trois ans après, l’Europe refait son retard et place officiellement une machine exaflopique dans le TOP 5 !
JUPITER et l’Avènement de l’Exascale Européen

C’est sans conteste l’événement marquant de cette édition de novembre 2025 du classement TOP500. Le système JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research), installé au Forschungszentrum Jülich en Allemagne, conserve sa 4ème classe acquise en Juin mais affiche pour la première fois un score officiel de 1000 Pétaflops (1 exaflops) avec même des « pointes » à 1,23 exaflops ! Et pourtant, l’appareil n’est pas encore complet. Seul le « Booster Module » a été officiellement inauguré en septembre dernier (son apparition dans le classement en Juin 2025 avait été réalisée sur une version encore incomplète et non optimisée du module).
Car JUPITER est en réalité une machine complexe et bicéphale. Contrairement aux architectures monolithiques souvent privilégiées aux États-Unis, le Centre de Supercalcul de Jülich (JSC) a opté pour une Architecture Modulaire Dynamique. JUPITER est ainsi composé de deux modules principaux interconnectés mais distincts :
1 – Le Module Cluster : Conçu pour les tâches généralistes nécessitant une forte capacité CPU.
2 – Le Module Booster : C’est ce module spécifique qui est classé 4ème au TOP500. Il est conçu pour la performance extrême et l’IA
Contrairement à ce que l’on pourrait croire, le Module Booster a été finalisé avant le Module Cluster. Ce dernier attend en effet la disponibilité de son processeur purement européen, le Rhéa-1 (en architecture ARM), conçu par le français SiPearl, dont le développement a pris plusieurs années de retard mais vient désormais d’entrer en production.
Le Module Booster de JUPITER repose sur l’architecture BullSequana XH3000 fournie par le constructeur français Eviden (groupe Atos). Il s’appuie sur des superpuces NVIDIA Grace Hopper (GH200), qui combinent un processeur ARM (Grace) et un GPU (Hopper) via une interconnexion cohérente NVLink-C2C à très haut débit (900 Go/s).

JUPITER n’est pas qu’un supercalculateur allemand : il incarne surtout la stratégie européenne pour maintenir son autonomie numérique. Porté par l’EuroHPC Joint Undertaking, financé par l’UE (programme Digital Europe), le BMBF et le MKW NRW, ce projet illustre une coopération politique et industrielle majeure. Avec plus de 500 M€ d’investissement (infrastructure et exploitation), JUPITER marque une étape historique : l’entrée de l’Europe dans l’exascale. Il rejoint une flopée de HPC financé par EuroHPC dont le LUMI (Finlande) et le Leonardo (Italie) dans la course mondiale au calcul haute performance et l’affirmation de la souveraineté technologique européenne. Même si JUPITER est la seule machine exascale pour l’instant. Une seconde machine est prévue en France fin 2026 ou plus probablement début 2027. Connue sous le nom d’Alice Recoque, elle sera installée au TGCC du CEA. Elle devrait être plus puissante que JUPITER.
Au-delà de la simulation scientifique classique (climat, matériaux, médecine), JUPITER a été désigné comme le cœur de la première « Usine à IA » (AI Factory) d’Europe. Cette initiative de l’EuroHPC JU vise à fournir aux startups, aux PME et aux chercheurs européens une puissance de calcul souveraine pour entraîner des modèles d’IA générative de grande taille (LLM).
La « Triple Couronne » américaine
En tête du classement, le podium n’évolue donc pas, dominé par les trois principales machines américaines.

Installé au Lawrence Livermore National Laboratory (LLNL) en Californie, El Capitan confirme son statut de supercalculateur le plus puissant de la planète. Ce système, fruit d’une collaboration étroite entre Hewlett Packard Enterprise (architecture HPE Cray EX255a) et AMD (qui fournit les 44.544 puces MI300A combinant CPU Zen4, GPU CDNA3 et mémoire HBM3 dans un seul package), a vu sa performance remesurée à la hausse, atteignant un score HPL (High Performance Linpack) de 1,809 Exaflop/s, contre 1,742 lors de l’édition précédente. Cette progression, bien que modeste en pourcentage, représente en valeur absolue l’ajout de la puissance de plusieurs supercalculateurs de classe pétaflopique, témoignant de l’optimisation continue des bibliothèques logicielles et de la stabilité du système à pleine échelle.
La machine aligne plus de 11,3 millions de cœurs et atteint environ 60,9 Gflops/W, ce qui en fait non seulement le HPC le plus rapide, mais aussi un système remarquablement efficace pour sa catégorie.
Au passage, signalons que El Capitan ne règne pas uniquement le benchmark Linpack. Le système détient ce que les experts nomment la « Triple Couronne », dominant simultanément trois benchmarks aux philosophies radicalement différentes :
– Le bench HPL (1,8 Eflop/s) du TOP500 qui mesure la résolution de systèmes d’équations linéaires denses. C’est l’étalon historique de la puissance brute.
– Le bench HPCG (17,41 Pflop/s) ou High-Performance Conjugate Gradient, considéré comme plus représentatif des charges de travail scientifiques réelles (dynamique des fluides, simulations de matériaux) car il sollicite intensément les accès mémoire irréguliers et les communications inter-nœuds. La domination d’El Capitan sur ce terrain prouve que son architecture mémoire unifiée apporte des bénéfices concrets pour la science, surpassant le précédent leader japonais, Fugaku.
– Le bench HPL-MxP (16,7 Eflop/s !!!), un récent benchmark en précision mixte (16/32 bits) qui évalue la performance pour l’intelligence artificielle. Le score vertigineux d’El Capitan démontre qu’il est aussi une « usine à IA » redoutable, capable d’entraîner des modèles de fondation massifs pour la sécurité nationale.

Frontier reste « numéro 2 » avec ses 1,353 exaflops/s. Basé sur une architecture HPE Cray EX235a, il se contente en revanche de CPU EPYC 3ᵉ génération et de GPU MI250X. Frontier illustre la maturité de l’écosystème logiciel ROCm d’AMD. Malgré une architecture moins intégrée que celle d’El Capitan (séparation CPU/GPU classique), il maintient une efficacité énergétique de 54,98 GFlops/Watt, ce qui le place toujours parmi les machines les plus efficientes du monde, prouvant que l’obsolescence dans le HPC de pointe est relative.

En troisième position, Aurora passe la barre du 1,012 exaflops/s avec ses lames HPE Cray EX exascale à base de Xeon CPU Max et de GPU Max d’Intel (architecture Ponte Vecchio). L’Aurora est un peu la déception du moment pour les américains. Plus d’un an après son entrée en opération, Aurora n’a pas encore atteint son plein potentiel théorique. Le système semble faire face à des défis d’optimisation et de consommation électrique importants que les ingénieurs n’arrivent pas à solutionner. C’est pourquoi le système actuel n’atteint qu’une fraction de sa performance de crête théorique (Rpeak). En outre, son efficacité énergétique reste nettement en retrait par rapport aux standards fixés par Frontier et JUPITER.
Ces trois machines sont toutes opérées par le Department of Energy américain et symbolisent la stratégie US avec des « AI factories » nationales, conçues autant pour la simulation scientifique que pour l’IA à très grande échelle.
Un TOP10 qui dit beaucoup de l’écosystème
Derrière ce quatuor exascale, le reste du TOP10 donne un instantané intéressant de l’écosystème HPC :
Eagle, le système cloud de Microsoft Azure, reste 5ᵉ avec plus de 561 PFlop/s, preuve que le cloud public s’installe durablement dans le haut du panier HPC. On peut quand même s’étonner de ne constater aucune amélioration de cette machine alors que Microsoft investit depuis un an environ 30 milliards de dollars dans ses infrastructures IA. Cela laisse à penser qu’Azure met plutôt le paquet sur la multiplication des systèmes pour l’inférence et un peu moins sur les super-machines d’apprentissage qu’il a développé pour OpenAI.
HPC6 (Eni, Italie) arrive 6ᵉ position avec environ 478 PFlop/s, confirmant l’investissement massif de l’industrie énergétique dans le calcul intensif.
Fugaku (RIKEN, Japon), longtemps numéro 1, se maintient à la 7ᵉ place mais reste un monstre pour les workloads mémoire-intensifs et domine encore le classement HPCG (juste derrière El Capitan).
Alps (Suisse), LUMI (Finlande) et Leonardo (Italie), tous trois sous bannière EuroHPC, complètent le TOP10 (rangs 8, 9 et 10). L’Europe place au final cinq systèmes dans le TOP10, même si la puissance agrégée mondiale reste très largement dominée par les États-Unis.
Autre enseignement majeur, la distinction entre supercalculateur scientifique (HPC) et infrastructure d’IA (AI Factory) est en passe de totalement s’estomper. Les architectures dominantes (NVIDIA GH200, AMD MI300A) sont désormais intrinsèquement conçues pour des charges de travail mixtes avec leurs unités matricielles (Tensor Cores) dédiées. Preuve que les investissements publics dans le HPC servent désormais une double finalité : maintenir l’excellence scientifique et soutenir la compétitivité économique dans la course à l’IA. D’ailleurs, le benchmark HPL-MxP (Mixed Precision) est aujourd’hui autant scruté que le HPL classique. Ainsi le LUMI européen, classé 9ème au TOP500 figure en 5ème position du HPL-MXP et affiche 2,3 Exaflops sur ce benchmark (16/32 bits).
Une guerre de marchés pour les vendeurs de CPU & GPU
Le classement est aussi révélateur des luttes de marché et de la dégringolade d’Intel et de l’architecture x86 qui dominait autrefois tout le classement. Les déboires d’Intel sur l’optimisation du Aurora illustrent bien les difficultés du fondeur sur le terrain de l’efficacité énergétique exactement comme sur les PC.
AMD est finalement le vrai sauveur de l’architecture x86 et occupe les deux premières places du podium. La firme a réussi à s’imposer dans l’univers HPC. Outre sa domination sur le podium, elle revendique 177 machines au sein du TOP500 (35% du marché) et anime 4 des 10 machines les plus puissantes.
Mais, comme sur les PC, l’architecture ARM, portée par Nvidia dans l’univers HPC, progresse de façon fulgurante. Elle est ainsi en passe de s’imposer comme le standard de facto pour les nouveaux déploiements européens, qui sont tous très axés sur l’efficacité énergétique et l’IA à l’instar du JUPITER, du futur Alice Recoque mais aussi des machines actuelles comme le Kairos et le Romeo.
GREEN500 : la revanche de la frugalité… européenne
Et justement, puisque l’on parle d’efficacité énergétique, le classement GREEN500 se révèle plus dynamique et surprenant que le classement TOP500. Le paysage change encore pour cette édition de novembre 2025 : les trois systèmes les plus sobres au monde sont tous européens et construits sur la même plateforme BullSequana XH3000 + NVIDIA Grace Hopper. On y retrouve :
N°1 : KAIROS (CALMIP / Université de Toulouse, France) – 73,28 Gflops/W pour 3,05 PFlop/s HPL. La machine est classée 422 ème au TOP500.
N°2 : ROMEO-2025 (Université de Reims, France) – 70,9 Gflops/W pour 9,86 PFlop/s. La machine est classée 172ème au TOP500.
N°3 : Levante GPU Extension (centre climatique DKRZ, Allemagne) – 69,43 Gflops/W pour 6,75 PFlop/s. La machine est classée 227ème sur le TOP500.
Pour situer le saut : il y a quelques années, un système très bien classé au GREEN500 plafonnait autour de 55 Gflops/W. Les meilleures machines dépassent désormais 70 Gflops/W, soit plus de 30 % de gain d’efficacité sur la même métrique, à puissance globale comparable.
Tous trois adoptent la même recette : Grace Hopper GH200, interconnexion InfiniBand NDR200, refroidissement liquide, et un travail d’optimisation poussé sur le couple matériel-logiciel. Nvidia équipe 6 machines du TOP 10 du Green500, AMD en équipe 4. Intel n’est présent qu’en 7ème position sur le SSC-24 (le HPC de Samsung en Corée) avec des Xeon 6 combinés à des puces Nvidia H100.
À noter que, pour retrouver une des machines TOP 10 du TOP500, il faut descendre jusqu’à la 14ème place du JUPITER ! Le supercalculateur exaflopique européen se démarque là encore. Il délivre « plus de 60 milliards d’opérations par watt », ce qui en fait le système le plus efficient parmi les cinq plus puissants du monde, tout en réutilisant sa chaleur émise pour le chauffage des bâtiments du campus via un réseau d’eau chaude ! El Capitan se situe à la 23ème place du Green500, le Frontier à la 34ème place, et le Aurora à la 90ème place !
L’Europe domine le GREEN500 en plaçant 7 machines dans le TOP 10, 8 si l’on compte l’Angleterre. Les USA n’en place qu’une seule… à la dixième place.
Au final on retiendra que l’Europe a réussi son pari et que son approche très orientée sur l’efficience énergétique est payante. Elle ne se contente pas de rattraper les États-Unis et propose une voie alternative fondée sur la modularité, l’architecture ARM et une efficacité énergétique radicale. Cette approche, validée par la domination d’Eviden sur le Green500, pourrait bien servir de modèle pour la prochaine grande frontière : le Zettascale (1000 Exaflops). L’Europe n’est plus simple spectatrice de l’ère exascale, elle en est désormais l’un des acteurs et peut même imaginer prendre la tête avec sa volonté de systématiquement combiner des machines quantiques à ses HPC les plus puissants avec une approche hybride qu’elle commence à bien maîtriser.
À LIRE AUSSI :
À LIRE AUSSI :
