Informatique Quantique : Pierre Jaeger (Quantum Strategic Partnership Executive chez IBM) et Stéphane Tanguy (directeur des systèmes et des technologies de la R&D chez EDF) sont nos invités de la semaine

Newtech

IBM/EDF : « Le quantique impose de repenser toute la stack du transistor aux applications »

Par La rédaction, publié le 09 février 2024

L’informatique quantique est présentée par tous les analystes comme l’une des ruptures technologiques majeures des prochaines années. Dès lors, l’agenda de son adoption questionne aussi bien les dirigeants d’entreprise que les DSI. Pour éclairer votre réflexion sur le sujet, Pierre Jaeger (Quantum Strategic Partnership Executive chez IBM) et Stéphane Tanguy (directeur des systèmes et des technologies de la R&D chez EDF) sont nos invités de la semaine.

YouTube

En chargeant cette vidéo, vous acceptez la politique de confidentialité de YouTube.
En savoir plus

Charger la vidéo

L’utilisation de l’ordinateur quantique permettra-t-elle de résoudre des enjeux business difficiles à concrétiser avec l’ordinateur classique ? De plus en plus de centres de R&D, de chercheurs, mais aussi d’entreprises en sont convaincus. C’est notamment la conviction de nos invités de la semaine, Pierre Jaeger (Quantum Strategic Partnership Executive chez IBM) et Stéphane Tanguy (directeur des systèmes et des technologies de la R&D chez EDF).

IBM est l’un des pionniers et des grands innovateurs de l’informatique quantique. L’éditeur met d’ailleurs à disposition (y compris gratuitement) des dizaines de machines quantiques à disposition des explorateurs de l’informatique à travers son offre Cloud QaaS IBM Quantum. Il a aussi su rallier autour de ses recherches et de son kit de développement QisKit un vaste écosystème de partenaires, d’universités et de chercheurs. Et sa roadmap donne le rythme à toutes les recherches concurrentes.

De son côté, EDF s’intéresse depuis 5 ans déjà au potentiel de cette révolution « parce que ça nous paraît une des ruptures majeures à venir dans le domaine des systèmes d’information » explique Stéphane Tanguy. « Chez EDF nous réalisons beaucoup de simulations, beaucoup de calculs scientifiques pour garantir la performance de notre parce de production, pour imaginer son évolution, pour traiter des problèmes d’une extrême complexité. En fait, pour nous, le quantique s’inscrit dans une transition des supercalculateurs utilisés aujourd’hui. »

À LIRE AUSSI :


Avec Guy Hervier, nos invités évoquent l’état de l’art quantique, les challenges à relever, les perspectives entrevues pour les entreprises mais aussi pourquoi il est important pour les DSI de s’y intéresser dès à présent. « C’est maintenant qu’il faut s’atteler aux problèmes de l’informatique quantique, aux problèmes mathématiques de l’informatique quantique, aux problèmes algorithmiques de l’informatique quantique pour être à même de tirer parti du hardware qui chaque année s’améliore avec une roadmap qui nous conduit désormais à des applications pratiques dès 2030 et une informatique quantique d’échelle en 2033 » explique Pierre Jaeger.

« Il faut bien comprendre que le quantique n’est pas qu’une rupture technologique » enchérit Stéphane Tanguy. « C’est une aussi une rupture algorithmique. Développer un code quantique n’a absolument rien à voir avec le développement d’un code classique. La programmation n’est plus déterministe, elle est probabiliste et ça change absolument tout ». Pour autant, les perspectives d’emploi de cette révolution ne sont pas si lointaines. EDF estime ainsi pouvoir passer en production ses premiers développements quantiques d’ici deux à trois ans ! « C’est maintenant qu’il faut se lancer pour avoir des équipes qui seront matures dans 2 ou 3 ans, parce que l’algorithmie quantique c’est pas simple, c’est même extrêmement compliqué » assure Stéphane Tanguy.

Selon nos invités, l’informatique quantique réinvente toute la stack informatique du plus petit transistor au cœur du hardware jusqu’aux applications utilisateur. Mais elle ne la remplacera pas. On parle d’ailleurs de QPU (Quantum Processing Unit) avec l’idée d’une informatique quantique servant d’accélérateur et de « faiseur de choses nouvelles » aux ordinateurs classiques un peu comme les GPU complètent aujourd’hui les CPU.

Car il s’agit moins d’aller plus vite que de faire des choses inaccessibles aux ordinateurs classiques parce que trop complexes telles que l’explosion combinatoire comme simuler le vieillissement des batteries, modéliser de nouveaux matériaux, déterminer comment des protéines vont se replier, comment vont vieillir les centrales nucléaires, etc.

Pour nos invités, trois domaines animent la recherche quantique : d’abord la simulation (simulation de l’atome, de la matière, du vivant, synthétisation dans la chimie, rétrosynthèse, etc.), ensuite la capacité de corrélation à même de métamorphoser les IA et les modèles IA, enfin l’optimisation opérationnelle (avec une capacité à gérer cette explosion combinatoire qui rend ce genre de problèmes difficilement accessibles à l’ordinateur classique).

Un entretien qui doit faire prendre conscience du potentiel de transformation de l’informatique quantique et de l’importance d’un engagement précise des entreprises pour sécuriser l’avantage technologique futur que leur promet la révolution quantique.


À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité