Articles Tagués ‘qbit’

dw4

Nous avons déjà parlé à plusieurs reprises dans ce blog de l’ordinateur quantique : je vous renvoie par exemple à cet article.

Pour mémoire, on rappelle qu’un tel superordinateur, imaginé par le physicien et Nobel Richard Feynman, repose sur le principe de l’utilisation des propriétés quantiques de la matière. Un ordinateur quantique manipule des qbits (ou qubits ou quantum bits) – voir l’article évoqué ci-dessus – et sa puissance est une fonction exponentielle du nombre de qbits manipulés. En traduction : plus un processeur quantique peut manipuler de qbits, plus il se rapproche du superordinateur rêvé par tous les informaticiens et capable de résoudre des problèmes jusque-là inattaquables.

dw1

Un calcul d’optimisation qui prendrait l’équivalent de l’âge de l’univers par un ordinateur classique serait résolu en moins de 10 minutes par un ordinateur quantique à 3000qbits. Inutile de souligner à nouveau la rupture stratégique et de souveraineté qu’amènerait un tel outil à la nation qui le posséderait.

qc3

Il y a quelques temps, la société canadienne D-Wave Systems, située à Burnaby, près de Vancouver, a annoncé avoir développé un ordinateur quantique (à 15 millions de dollars tout de même), acheté par Google ou la NSA entre autres (bien entendu je ne fais aucun rapprochement…), et capable de manipuler 512 qbits. Google a ainsi annoncé avoir constaté qu’un algorithme d’optimisation (dit « de recuit simulé ») était plus de 100 millions de fois plus rapide sur la machine de D-Wave que sur un ordinateur classique. Un exploit toutefois considéré avec méfiance par de nombreux spécialistes, dans la mesure où D-Wave a toujours refusé de divulguer les détails de ses tests, ni de procéder à des tests indépendants.

La société revient aujourd’hui sur le devant de la scène, avec un nouveau processeur quantique capable de manipuler 2000 qbits, et 1000 fois plus puissant que son prédécesseur, le D-Wave 2X.

dw2

Ce processeur utilise des micro-composants de niobium refroidis à l’helium liquide à une température proche du zéro absolu (en l’occurrence -273°C). Avec une telle machine, D-Wave annonce vouloir révolutionner la recherche opérationnelle et – c’est à la mode – l’apprentissage machine et l’intelligence artificielle.

Une telle machine, toutefois, ne pourra résoudre que les problèmes pour lesquels elle est optimisée ; les experts n’envisagent en effet le développement d’un véritable supercalculateur quantique qu’à partir de 2030. En l’occurrence, le nouveau processeur de D-Wave ne sait résoudre que des problèmes d’optimisation dits QUBO (Quadratic unconstrained binary optimization) – parmi lesquels, il est vrai, on trouve des problèmes de « pattern matching », d’optimisation ou certains algorithmes d’apprentissage.

Et c’est là que cela devient intéressant, car le développement de processeurs spécifiquement optimisés pour l’intelligence artificielle et en particulier le « deep learning » (le renouveau des réseaux de neurones) figure sur la feuille de route de nombre de fabricants de processeurs. Ainsi, NVIDIA a développé la carte DGX1, dédiée à l’apprentissage machine (et ne coûtant qu’environ 100k€).

dw3

Avec le développement du nouveau processeur de D-Wave, on commence à entrevoir une génération de machines quantiques spécifiquement optimisées, et qui permettraient de doper considérablement l’apprentissage non supervisé. Je ne rentre pas dans les détails, mais les grands défis de l’intelligence artificielle sont de ce type : détection d’anomalies dans des réseaux, identification de « patterns » dans les profils et comportements pour la lutte anti-terroriste, analyse automatique d’images complexes, etc…

dw5

Cela explique sans doute pourquoi D-Wave a été financée par plusieurs sociétés, dont Bezos Investment (fondée par la société du créateur d’Amazon, Jeff Bezos) et surtout, In-Q-Tel, la société d’investissement…de la CIA.

qc4

Il y a déjà quelques temps, j’avais parlé sur ce blog de l’accélération de la recherche visant à développer un ordinateur quantique (QC pour Quantum Computer) – vous trouverez l’article sur cette page. On rappelle qu’un QC est un ordinateur qui manipule des qbits, donc des bits d’information qui au lieu de prendre la valeur 0 ou 1, sont dans les deux états à la fois, ainsi que dans toutes les combinaisons possibles de ces états. Le résultat, bien qu’intuitivement difficile à appréhender, est un supercalculateur capable de cribler en parallèle un espace de recherche mathématique, avec pour résultat qu’une clé de chiffrage de 700 bits serait déchiffrée en quelques secondes au lieu d’une année actuellement avec l’aide de 400 ordinateurs.

La National Security Agency américaine (NSA) a publié récemment sur son site (voir cette page) une déclaration annonçant la transformation des algorithmes de chiffrement actuellement utilisés par la défense et le gouvernement américains en nouveaux algorithmes capables de résister à un ordinateur quantique. Je vous laisse lire en version originale :

« we will initiate a transition to quantum resistant algorithms in the not too distant future. Based on experience in deploying Suite B, we have determined to start planning and communicating early about the upcoming transition to quantum resistant algorithms. Our ultimate goal is to provide cost effective security against a potential quantum computer. »

qc1

Les codes type RSA ou Diffie-Hellman (je laisse les lecteurs faire une recherche sur ces algorithmes pour ne pas inutilement alourdir la lecture) sont directement et facilement déchiffrables par un ordinateur quantique, puisque reposant sur  la difficulté à résoudre des problèmes mathématiques complexes comme la factorisation de nombres premiers ou les courbes elliptiques. Des problèmes pour lesquels les QC sont particulièrement adaptés.

qc3

A l’inverse, les spécialistes en cryptographie ont depuis longtemps anticipé cette « course au chiffrement » pour développer des algorithmes difficiles à déchiffrer par un QC. Ainsi, la cryptographie fondée sur les « lattices » (surfaces maillées multidimensionnelles) joue sur la difficulté à localiser un point dans une surface à plus de 500 dimensions. Sans rentrer dans les détails, dans ce type de codage, une position dans l’espace multidimensionnel représente la clé publique, alors que le plus proche point à localiser correspond à la clé privée. D’autres algorithmes « QC-résistants » existent, comme par exemple les codages reposant sur l’utilisation  d’équations polynomiales complexes.

Toutefois, même ces nouveaux algorithmes peuvent être « cassés », comme l’a montré l’an dernier une équipe du Government Communications Headquarters (GCHQ) britannique en publiant une faiblesse exploitable par un QC dans leur code à base de lattice baptisé « Soliloquy », déclenchant ainsi une tempête dans la communauté des cryptographes (discrète s’il en est : ce n’est pas passé sur France télévisions…).

Le résultat : une recherche effrénée aujourd’hui pour identifier les algorithmes capables d’être déchiffrés par un QC et ceux qui ne le sont – pour l’instant – pas. Ce qui est intéressant dans cette histoire, c’est que la NSA est donc en train de prendre des précautions par anticipation sur une technologie potentiellement menaçante, avant même que cette technologie ne soit développée et ne montre ses capacités. Un peu comme si nous développions un système de défense contre « l’Etoile Noire » afin d’éviter qu’elle ne détruise notre planète…

IBMChip

L’ordinateur quantique représente – selon certains et j’en fais partie – l’avenir de l’informatique.  Alors que la limite de fréquence des processeurs est atteinte depuis longtemps (passer à un ordre de grandeur supplémentaire en termes de fréquence nécessiterait de dissiper l’équivalent de la chaleur de la surface du soleil), le superordinateur quantique promet une puissance de calcul phénoménale.

Le principe d’un tel calculateur, imaginé par le physicien et Nobel Richard Feynman, repose sur l’utilisation des propriétés quantiques de la matière. Un ordinateur conventionnel manipule des bits (0 ou 1) : le courant passe ou ne passe pas, et toute l’information est codée suivant ce principe. En revanche, un ordinateur quantique utilise des qbits (ou qubits, ou quantum bits) : imaginons une particule (atome, électron, photon) capable de stocker de l’information. A l’échelle quantique, suivant le principe de superposition, une telle particule n’est pas dans un état «0 » ou « 1 » mais dans les deux états à la fois (et dans toutes les combinaisons possibles de ces états). Rentre également en compte la propriété d’intrication, permettant de considérer un état dans lequel deux qbits sont liés.

qbit

Au lieu de cribler un espace de recherche de manière séquentielle (pour déchiffrer un code, par exemple), il devient possible de le cribler en parallèle : tous les codes possibles sont simultanément examinés. Bien évidemment, c’est une explication simplifiée, voire simpliste, mais il ne s’agit pas ici de rentrer dans les détails de la théorie.

Dans le domaine de la défense et de la sécurité, les implications sont colossales : décoder n’importe quelle communication cryptée par exemple : une clé de chiffrage de 700 bits ne tiendrait que quelques… secondes au lieu d’une année actuellement avec l’aide de 400 ordinateurs. Mais également simuler des phénomènes complexes permettant de développer des systèmes d’armes, ou des véhicules extrêmes atteignant aujourd’hui les limites des outils de modélisation.

dwave

Depuis quelques temps, une société baptisée D-Wave prétend avoir développé un ordinateur quantique (d’ailleurs déjà vendu à Google et à la NASA) – voici un petit film montrant la « bête ».

Toutefois, cet ordinateur aujourd’hui n’utilise que 100qbits effectifs. En effet, sa puce « VESUVIUS » est théoriquement capable de manipuler 512 qbits, mais ces derniers ne sont pas tous connectés. Pour ceux que cela intéresse, voici un lien vers un article réalisé par des chercheurs de D-Wave (bon courage).

Outre le fait de ne pas utiliser toute la puissance de calcul, les ordinateurs quantiques actuels font… des erreurs (ce que l’on appelle la décohérence quantique) en raison de problèmes de chaleur, de rayonnement électromagnétique ou de défauts de conception. Et ces erreurs sont difficiles à détecter et à corriger.

dwave2

Mais aujourd’hui des chercheurs d’IBM research ont annoncé avoir trouvé un moyen de détecter simultanément les erreurs de décohérence (bit-flip : un 0 devient un 1 ou phase-flip : un problème de signe dans l’état de superposition du qbit – oui, je sais, c’est un peu théorique, mais nécessaire pour comprendre l’innovation). Auparavant, seule une de ces erreurs pouvait être détectée à la fois : aujourd’hui, avec l’innovation d’IBM, il devient possible de détecter et donc de corriger simultanément toutes les erreurs de décohérence. Encore une fois, je ne rentre pas ici dans les détails.

cooling

L’innovation est majeure ; elle repose sur une nouvelle architecture de puce quantique (voir image en tête d’article), à base de superconducteurs refroidis, aujourd’hui testée par IBM sur 4 qbits. Pour donner une idée de ses retombées : imaginons une telle puce avec seulement 50qbits (et l’architecture le permet) : sa puissance dépasserait n’importe quelle combinaison des plus puissants superordinateurs actuels dans le top500 (voir mon article sur les superordinateurs les plus puissants).

On le voit, le développement d’un superordinateur quantique est un enjeu massif de souveraineté. Le Washington Post a d’ailleurs annoncé à partir des documents révélés par Edward Snowden, que la NSA était en train de bâtir un tel ordinateur. Où en sommes nous en France ? Mystère. Pourtant, avec ses 11 médaillés Fields, la France est parmi le peloton de tête de l’innovation mathématique.  Avec nos champions intellectuels, et nos groupes industriels de premier rang, il serait dangereux, voire suicidaire, de ne pas s’engager dans cette révolution. Nul doute qu’il y aura un « avant » et un « après » de la révolution quantique ; il s’agit donc de ne pas rater ce train…

Images (c) IBM Research, D-Wave, universe-review.ca