Les limites d’un simulateur
ATOS, IBM, Microsoft proposent tous des simulateurs et des langages de programmation associés pour se familiariser avec les concepts et écrire/tester ses algorithmes.
Bien entendu, ces simulateurs tournent sur des ordinateurs binaires classiques et « simulent » un comportement quantique. Mais c’est largement suffisant pour se former.
En pratique, ces simulateurs sont très vite limités par le nombre de qubits. En effet, nous avons vu dans les bases, qu’un système quantique à n qubits utilisait des matrices de 2^n par 2^n (car pour n qubits, il y a 2^n états possibles – voir l’exemple de la porte de Toffoli : 3 qubits, matrice 8×8).
Donc, au delà de 50 qubits, il faudrait des ordinateurs classiques capables de faire des opérations sur des matrices 2^50 par 2^50… très compliqué pour les mémoires actuelles. 2^50 = 1 petaoctet. 2^100 (=taille de la matrice) n’a même pas de nom.
La solution ATOS QLM (Quantum Learning Machine) propose à ce jour (janvier 2019) une puissance de 40 qubits simulés (mais la mémoire n’est même pas d’1 yottaoctet, des astuces mathématiques permettent de manipuler des matrices pas toujours pleines 😉 )
La décohérence quantique dans les ordinateurs
Le principal obstacle au développement des ordinateurs quantiques est la décohérence des particules.
Tout le calcul « quantique » doit se faire pendant l’état de cohérence (superposé) des qubits. Or, cet état est très instable physiquement puisque la moindre interaction d’une particule avec une autre cause la décohérence quantique (quantum decoherence).
Parmi les sources d’interactions, il y a :
- Le mouvement/interaction des particules. Il est donc important de travailler dans une température proche du 0 absolu (0 Kelvin = -273,15 °C) afin de « figer les particules ». En pratique le DWave ou le IBM Q System One travaille entre 10 et 20 mK (milli-Kelvins). C’est sans doute l’endroit le plus froid de l’univers ! (la température de l’espace est de 2,7K seulement). Pas une température à laisser une KetKet dehors ! Cela pose un problème technique de refroidissement et demande une technologie pointue.
- Les perturbations électromagnétiques. Ça, on y arrive assez bien en entourant les processeurs quantiques dans des cages de Faraday successives.
- Certains [11] prétendent que la gravité peut être une cause de décohérence. Cela est embêtant car nous n’avons pas encore de bouclier « anti-gravitationnel » !
- Le passage dans des portes quantiques augmente mécaniquement l’interaction des particules et diminue la durée de la cohérence quantique.
Les conséquences de cette décohérence « subie »
Aujourd’hui, le fameux IBM Q Tokyo (20 qubits) affiche les performances moyennes suivantes :
T1 : Coherence Time = durée pendant laquelle le qubit peut rester dans un état quantique superposé (= temps pour maintenir sa position sur l’axe Z). Tous les calculs doivent donc se faire entre 0 et 85 µs.
T2 : Relaxion Time = durée pendant laquelle le qubit peut maintenir ses composantes sur les axes X,Y.
Readout error : c’est à dire des erreurs de mesure de qubits de l’orde de 6-7%. C’est énorme !
Illustration sur le IBM Q System One
Appliquons le même programme sur le simulateur et l’ordinateur quantique (comme expliqué dans la page Jouer avec IBM Q !)
Maintenant que vous avez lu la page Les bases #1, vous reconnaissez une simple porte CNOT avec |01> en entrée. Le qubit de contrôle est à |1> donc il inverse le qubit-target. Le résultat de sortie est bien |11>
Exécution de ce même programme sur un vrai ordinateur quantique:
Nous obtenons dans 80% (des 1024 exécutions) la bonne réponse |11>, mais aussi des réponses parasites qui sont théoriquement impossibles (notamment celles avec le qubit de contrôle à 0 : ce circuit ne le modifie pas!)
qubits physiques vs qubits logiques
Pour compenser cette fiabilité des qubits, on a imaginé des codes de correction d’erreur (QEC = Quantum Error Correction), basés sur la redondance de l’information et des traitements. En simplifiant, on peut dire qu’il faut n qubits physiques pour faire 1 « qubit logique » fiable.
C’est bien entendu au développeur de coder son propre QEC.
Ce nombre n est discuté : il varie bien sûr suivant la qualité de l’ordinateur quantique mais aussi de l’algorithme de correction d’erreur. Il oscille entre 5 et un million ! [3]. Inutile de dire que cette incertitude ne nous aide pas à imaginer de façon fiable les progrès de l’informatique quantique !
[26] donne leschiffres estimés suivants :
Une implémentation de l’algorithme de Shor pour casser une clé RSA de 2048 bits demande 4098 qubits logiques, soit 8,5*10^6 qubits physiques, toujours selon [26].
Ceci est illustré dans le rapport allemand de mai 2018 sur l’état des lieux des implémentations quantiques [13] par le graphe ci-dessous. Sans trop rentrer dans le détail, la zone jaune montre les performances actuelles et en rouge, ce qu’il faudrait pour un algo de factorisation. Un sacré décalage !
La US National Academies of Sciences [26] ne donne pas de date sur la faisabilité d’un ordinateur quantique : » Key Finding 4: Given the information available to the committee, it is still too early to be able to predict the time horizon for a scalable quantum computer. » et aussi « Given the current state of quantum computing and recent rates of progress, it is highly unexpected that a quantum computer that can compromise RSA 2048 or comparable discrete logarithm-based public key cryptosystems will be built within the next decade. »
Les compétences
Les compétences sont – et resteront probablement – un problème pour le développement de l’informatique quantique. Comme vous avez pu le voir, cela nécessite des compétences mathématiques, physiques et conceptuelles plus pointues que l’apprentissage d’un langage de programmation structuré. « Traverser la rue » pour trouver un emploi de concepteur d’alogrithme quantique semble peu probable 😉
Le modèle économique et la loi de Moore
Selon [26], la loi de Moore est un cycle vertueux où les progrès technologiques exponentiels génèrent des revenus exponentiels – convertis en investissements R&D qui alimentent à leur tour le progrès. Pour qu’il y ait une loi de Moore en quantique, il faudrait des premiers succès commerciaux qui amorcent ce cycle d’investissements – sinon, nous restons tributaires des investissements de R&D des gouvernements.
Quelques sceptiques
Voyons tout cela, Scott Locklin est devenu un physicien sceptique. Dans son article publié début janvier 2019, il accuse l’informatique quantique d’être du « bullshit » et d’épuiser inutilement de bons chercheurs. Pour lui, aucun progrès notable n’a été accompli ces dernières années et il est impossible, en pratique (ou du point de vue physique), d’avoir un système fiable à plusieurs centaines de qubits. Inutile de rêver aux milliers, voire millions de qubits nécessaires pour avoir de « vrais résultats ».
Argument de poids : selon lui, pour factoriser (algo de Shor) un nombre de 4096 bits, il faudrait 72*40963 ( 4 947 802 324 992) portes quantiques (presque 5*10^12). Il juge cela illusoire.
A titre de comparaison, le microprocesseur Apple A11 Bionic ne compte « que » 4 300 000 000 transistors (4*10^9).
Le 7 aout 2019, Gil Kalai, chercheur à l’université d’Israël a publié un article « The Argument against Quantum Computers« . Pour lui les NISQ (Noisy Intermediate Scale Quantum Computers) ne permettront pas de traiter des problèmes complexes (au sens NP…) à cause de l’instabilité intrinsèque lié au bruit.
Conclusion
Ce n’est pas en végétant à quelques dizaines ou centaines de qubits physiques que les applications de l’informatique quantique vont décoller.
Il faudrait une réelle rupture dans la maîtrise physique de la décohérence quantique. Des milliers de chercheurs y travaillent ardemment dans le monde. C’est la seule façon de « débloquer » les perspectives ! (Prix Nobel à la clé, avis aux amateurs ! 😀 )
Page mise à jour le 21/11/2019.