Cloud

Informatique Quantique : Histoire d’une supposée suprématie

Par Laurent Delattre, publié le 23 septembre 2019

Selon la presse internationale, Google clamerait avoir atteint la suprématie quantique. Mais derrière les gros titres se cache juste une toute petite victoire – néanmoins significative – pour l’informatique quantique.

Dès 1981, Richard Feynman était convaincu que les ordinateurs quantiques offriraient une puissance de calcul considérablement supérieure à celle des ordinateurs numériques. L’idée d’une « Suprématie Quantique » a été évoquée par John Preskill en 2011 pour qui « l’ère de la suprématie quantique débutera lorsque nous serons capables de réaliser sur un système quantique contrôlé des tâches au-delà de tout ce qui est possible de faire avec un ordinateur classique ».
Le rapport « Characterizing quantum supremacy in near-term devices » en a donné une définition plus précise et plus universellement acceptée : « la suprématie quantique est atteinte quand une tâche informatique formelle est réalisée par un ordinateur quantique alors qu’elle ne peut l’être par aucun algorithme connu sur un ordinateur classique dans un temps humainement raisonnable ».

Un petit pas quantique

L’information publiée à l’origine par The Financial Times fait référence à une publication (rendue publique prématurément et retirée depuis) conjointe de la NASA et de Google autour d’une expérimentation qui a permis de résoudre un calcul bien spécifique en 3 minutes et 20 secondes alors qu’il faudrait 10.000 ans au plus puissant des HPC actuels (l’IBM Summit) pour parvenir au même résultat.

Sur le papier, la performance réalisée par la NASA sur une machine quantique Google (qui possède sa propre technologie d’ordinateur quantique) ressemble bien à une suprématie quantique. En réalité, elle marque la première démonstration qu’un ordinateur quantique peut effectivement calculer à une échelle humaine du temps ce que des ordinateurs numériques classiques prendraient des centaines voire des milliers d’année à calculer. Une « vérité » présumée par tous les spécialistes du domaine depuis Feynman mais jamais aussi significativement mise en évidence.

On est encore loin du compte

De là à affirmer avoir atteint la suprématie quantique, c’est aller un peu vite en besogne. Pour l’atteindre, il aurait fallu réaliser une véritable « tâche » utile à l’humanité ou aux entreprises. Et non un calcul à l’utilité plus que limitée : prouver que les nombres aléatoires générés par un générateur de nombres aléatoires sont bien aléatoires.
Évidemment, personne n’a jamais eu l’idée (ni les moyens, mais c’est un détail) de faire tourner pendant 10.000 ans un algorithme pour finalement savoir que « ah, ben, oui, les nombres générés il y a 10 mille ans étaient bien aléatoires ». À la limite, on aurait préféré obtenir « 42 » comme réponse de l’ordinateur de Google : au moins aurait-on appris que l’informatique quantique avait de l’humour [pour rappel, c’est la réponse délivrée après 7,5 millions d’années de calcul par « Deep Thought » l’ordinateur du Guide du voyageur galactique de Douglas Adams à la grande question sur la vie, l’univers et le reste].

Bien sûr, l’expérimentation réalisée avec l’ordinateur quantique de Google marque une étape. Un pas de fourmi pour l’informatique mais… un pas quand même.
Son enseignement n’est pas tant de nous apprendre que nos générateurs aléatoires sont effectivement capables de produire des nombres aléatoires (chouette !) mais plutôt que l’informatique quantique soulève des difficultés que les scientifiques mettent plus de temps à résoudre qu’ils ne l’espéraient. Car, pour la petite histoire, Google envisageait, en 2017, atteindre rapidement cette « suprématie quantique » avec un système 72-qubit en cours d’élaboration.
Finalement, son objectif – simplifié à l’extrême – aura été atteint en 2019 avec un système 54-qubit appelé Sycamore et sur lequel seuls 53 qubits auraient réellement été utilisés (le 54 ème n’aurait jamais fonctionné correctement). Le tout avec un algorithme spécialement pensé et agencé pour rester dans les lourdes contraintes du système (20 cycles).

Des avancées encore timides

Apparemment, Google a rencontré trop de difficultés à contrôler et développer son système « 72-qubit » et a changé de direction en se focalisant sur son système antérieur et en améliorant sa gestion du bruit et des corrections d’erreurs.
Et le géant américain de la recherche sur Internet ne semble pas le seul à galérer. On est sans nouvelle des expérimentations de Microsoft ni du processeur « 128-qubit » de Rigetti. Le processeur 1500 qubits d’Intel n’a jamais vu d’autre lumière que celle des photographes de presse. Le premier ordinateur quantique (à Qubit universel) commercial, le cryogénique IBM Q System One plafonne à 20 qubits.
Certes, l’informatique quantique prend corps peu à peu. IBM vient d’annoncer enrichir son cloud d’un nouveau système 53-qubit et de trois IBM Q System One supplémentaires. Ils viendront, dès octobre, s’ajouter aux dix ordinateurs quantiques (5 systèmes 20-qubit, 1 système 14-qubit et 4 systèmes 5-qubit) déjà mis à disposition à travers le cloud par IBM auprès des centres de recherche et des universités. Selon IBM, plus de 14 millions de calculs quantiques auraient ainsi été lancés à travers son cloud depuis l’introduction de sa première machine quantique en 2016.
On est encore loin de prouver la suprématie quantique attendue d’algorithmes « significatifs » comme ceux de Shor (factorisation d’un entier pour casser les chiffrements à clé publique) ou de Grover (recherche dans une base de données). Après tout, on estime qu’il faudrait au moins 2051 qubits (et 4 810 milliards de portes quantiques) pour craquer une clé 1024 bits avec l’algorithme de Shor… Une « suprématie » encore bien loin d’être atteinte. Finalement, si suprématie de Google il y a dans cette histoire, elle est certainement plus marketing et médiatique que quantique…

Dans l'actualité

Verified by MonsterInsights