Articles Tagués ‘quantum computer’

qc4

Il y a déjà quelques temps, j’avais parlé sur ce blog de l’accélération de la recherche visant à développer un ordinateur quantique (QC pour Quantum Computer) – vous trouverez l’article sur cette page. On rappelle qu’un QC est un ordinateur qui manipule des qbits, donc des bits d’information qui au lieu de prendre la valeur 0 ou 1, sont dans les deux états à la fois, ainsi que dans toutes les combinaisons possibles de ces états. Le résultat, bien qu’intuitivement difficile à appréhender, est un supercalculateur capable de cribler en parallèle un espace de recherche mathématique, avec pour résultat qu’une clé de chiffrage de 700 bits serait déchiffrée en quelques secondes au lieu d’une année actuellement avec l’aide de 400 ordinateurs.

La National Security Agency américaine (NSA) a publié récemment sur son site (voir cette page) une déclaration annonçant la transformation des algorithmes de chiffrement actuellement utilisés par la défense et le gouvernement américains en nouveaux algorithmes capables de résister à un ordinateur quantique. Je vous laisse lire en version originale :

« we will initiate a transition to quantum resistant algorithms in the not too distant future. Based on experience in deploying Suite B, we have determined to start planning and communicating early about the upcoming transition to quantum resistant algorithms. Our ultimate goal is to provide cost effective security against a potential quantum computer. »

qc1

Les codes type RSA ou Diffie-Hellman (je laisse les lecteurs faire une recherche sur ces algorithmes pour ne pas inutilement alourdir la lecture) sont directement et facilement déchiffrables par un ordinateur quantique, puisque reposant sur  la difficulté à résoudre des problèmes mathématiques complexes comme la factorisation de nombres premiers ou les courbes elliptiques. Des problèmes pour lesquels les QC sont particulièrement adaptés.

qc3

A l’inverse, les spécialistes en cryptographie ont depuis longtemps anticipé cette « course au chiffrement » pour développer des algorithmes difficiles à déchiffrer par un QC. Ainsi, la cryptographie fondée sur les « lattices » (surfaces maillées multidimensionnelles) joue sur la difficulté à localiser un point dans une surface à plus de 500 dimensions. Sans rentrer dans les détails, dans ce type de codage, une position dans l’espace multidimensionnel représente la clé publique, alors que le plus proche point à localiser correspond à la clé privée. D’autres algorithmes « QC-résistants » existent, comme par exemple les codages reposant sur l’utilisation  d’équations polynomiales complexes.

Toutefois, même ces nouveaux algorithmes peuvent être « cassés », comme l’a montré l’an dernier une équipe du Government Communications Headquarters (GCHQ) britannique en publiant une faiblesse exploitable par un QC dans leur code à base de lattice baptisé « Soliloquy », déclenchant ainsi une tempête dans la communauté des cryptographes (discrète s’il en est : ce n’est pas passé sur France télévisions…).

Le résultat : une recherche effrénée aujourd’hui pour identifier les algorithmes capables d’être déchiffrés par un QC et ceux qui ne le sont – pour l’instant – pas. Ce qui est intéressant dans cette histoire, c’est que la NSA est donc en train de prendre des précautions par anticipation sur une technologie potentiellement menaçante, avant même que cette technologie ne soit développée et ne montre ses capacités. Un peu comme si nous développions un système de défense contre « l’Etoile Noire » afin d’éviter qu’elle ne détruise notre planète…