Archives de la catégorie ‘Informatique et IA’

nesd1

De retour de Washington (d’où le rythme un peu lent cette semaine de mes articles), coup de projecteur sur une initiative de la DARPA (Defense Advanced Research Projects Agency, encore elle), le projet NESD pour Neural Engineering System Design. Il ne s’agit ni plus ni moins que de développer une interface cérébrale permettant de transférer des données entre le cerveau et le monde numérique.

Pour ce faire, la DARPA dispose d’un « petit » budget à son échelle (60 millions de $ sur 4 ans, à comparer à un budget annuel global de près de 2.9 milliards de $, pour information). L’idée est de développer un implant cérébral, de la taille d’une pièce de 5 centimes d’euros et d’une épaisseur double, permettant de traduire les communications électrochimiques du cerveau en signaux numériques.

nesd2

Alors que les implants thérapeutiques existants se limitent à 100 canaux de communication, le nouvel implant devrait permettre de communiquer simultanément avec 1 million de neurones. Les défis technologiques sont nombreux : en neurobiologie évidemment, mais aussi dans le domaine du calcul, de l’énergie, et du logiciel (transcodage, compression, analyse du signal, etc…).

Quant aux applications, elles vont de la restauration de capacités perdues suite à une lésion cérébrale (audition, vision, gestes…) au traitement rapide de l’information, et au contrôle/commande de systèmes complexes par interface cérébrale.

nesd3

Le projet, ambitieux, fait partie du programme « Brain initiative » lancé par le président Barack Obama, et qui, en ce qui concerne la DARPA, agrège plusieurs programmes de recherche comme le projet ElectRx visant à conférer au corps humain des capacités d’auto-guérison accrues, par la neurostimulation modulaire des organes internes (!), le projet PREVENT pour comprendre la physique des blessures neurologiques et en limiter les effets, ou encore le projet HAPTIX de développement d’interfaces tactiles proprioceptives. Pour une vision globale, voir la page dédiée sur le site de la DARPA. En ce qui concerne le projet Brain Initiative, vous pouvez en savoir plus sur le site de la Maison Blanche.

nesd4

Le projet NESD sera orienté vers le développement d’interfaces prioritairement vers le cortex visuel primaire et le cortex auditif – outre les applications, il s’agit des zones du cerveau sur lesquelles on dispose aujourd’hui d’information et de connaissances importantes, et qui sont physiquement accessibles pour l’implantation d’un dispositif. Le programme sera organisé en deux domaines techniques (TA pour Technical Areas) :

  • TA1 : transduction neurale et algorithmes – il s’agit de mettre en place les algorithmes et techniques permettant d’élaborer le design du système NESD
  • TA2 : Hardware, prototypage et fabrication (ainsi que les tests et validations) de la plate-forme NESD.

La DARPA cherche aujourd’hui à mettre en place un consortium industriel multidisciplinaire de travail sur le programme et organise une journée d’information dont vous trouverez le détail ici. Les français y sont d’ailleurs bien représentés.

 

para4

Le largage de précision a pour objectif de livrer par parachute de l’équipement, des colis, des munitions, à une hauteur variant entre 125m (400 pieds) et 7600m (25 000 pieds environ) d’altitude, en fonction de la méthode choisie : utilisation de la gravité, ou éjection de la charge dans le second cas. Il a pour objectif de renforcer la logistique de théâtre, de ravitailler des garnisons ou des unités isolées en environnement hostile.

Mais au-delà de l’éjection, un second problème consiste à atterrir avec précision à l’emplacement visé (en particulier lorsque l’aérolargage est effectué au profit des Forces Spéciales). En ce cas, des parachutes guidés de type « aile » (parafoils) peuvent être utilisés, et pour permettre un guidage optimal, des solutions de « parachute intelligent » ont été développées.

para1

Le plus connu est le système américain JPADS, pour « joint precision airdrop system », en service depuis 2006 en Afghanistan. Il s’agit d’une famille comprenant principalement 4 systèmes autonomes, guidés grâce à un GPS couplé à des servomoteurs directement reliés aux suspentes, et largués à des altitudes allant jusqu’à 25 000 pieds. Ils permettent de guider une charge au sol, avec une précision de l’ordre de 50 mètres. D’autres solutions du même type existent comme le Paralander développé par Cassidian, le DragonFly, l’Onyx ou des solutions de type parafoils motorisés.

Mais le GPS est susceptible d’être brouillé ou perturbé soit par des systèmes de guerre électronique, soit même par des solutions bon marché et compactes, accessibles au grand public. Pour contrer cette menace, les développeurs du JPADS l’ont doté d’un nouveau système de guidage qui utilise la vision artificielle.

L’idée est ainsi de munir le système de guidage d’un boitier AGU (aerial guidance unit) muni d’une caméra qui regarde le sol, et compare l’image optique avec une imagerie satellitaire entrée en préparation de mission dans la base de données de l’AGU. En lieu et place du GPS, le système utilise des indices visuels pour réaligner le guidage en fonction des données optiques recueillies.

para2

Evidemment, en cas de largage nocturne, ou de couche nuageuse importante, la solution se révèle limitée. L’US Army (Army’s Natick Soldier Research, Development and Engineering Center ou NSRDEC) travaille donc aujourd’hui avec la société Draper, conceptrice du JPADS, pour surmonter ces difficultés, en utilisant des capteurs infrarouges, ou en utilisant une combinaison de systèmes de guidage visuels/GPS.

para3

Les premiers tests réalisés (photos ci-dessus) ont néanmoins permis de confirmer l’intérêt de l’approche, avec une précision satisfaisante de largage, alors qu’aucune donnée GPS (et en particulier pas de données sur la position initiale de l’avion) n’a été utilisée. La même approche, si elle se révèle suffisamment robuste, pourrait être à terme utilisée pour le guidage de drones, ou le largage HALO (haute altitude, basse ouverture) de chuteurs opérationnels.

deep0

L’essor de l’internet des objets a parfois des conséquences inattendues – surtout lorsqu’il s’accompagne du développement de l’intelligence artificielle. Aujourd’hui, les objets connectés comme les smartwatch, ou les bracelets connectés (fitbit et autres) pénètrent dans les foyers et accompagnent l’utilisateur au quotidien. Une manne pour les espions 3.0.

Des chercheurs de l’université de Copenhague viennent d’en faire la preuve. Car aujourd’hui, tout le monde ou presque continue à utiliser un clavier pour rédiger ses documents, taper des recherches, entrer des mots de passe ou des coordonnées bancaires.

Mais lorsque l’utilisateur porte un WAD (Wearable Wristband and Armband Device : acronyme rassemblant les montres et bracelets connectés), il porte en réalité un dispositif bardé de capteurs de mouvement (accéléromètre, gyroscopes, …). L’exploitation de ces capteurs pourrait donc permettre de reconstituer la totalité des informations tapées par l’utilisateur : mots de passe mais aussi codes d’accès à des bâtiments ou pour des distributeurs de billets, « knock codes » sur smartphone, etc.

deep3

La reconstitution de l’information n’est pas triviale, puisque les mouvements sont individuellement variables et bruités : il est donc très difficile d’en reconstituer les aspects exploitables… sauf lorsque l’intelligence artificielle s’en mêle.

C’est ce que l’on appelle le Deep Spying : l’espionnage faisant appel à des techniques de « Deep Learning » (apprentissage machine fondé sur l’analyse de modèles de données). Dans le cas présent, l’approche utilisée repose sur l’utilisation de réseaux de neurones multicouches afin d’extraire et d’apprendre des caractéristiques propres à la frappe de l’utilisateur. Car depuis longtemps, on songe à utiliser le mouvement caractéristique d’un utilisateur pour l’identifier. Ici, cette approche est détournée pour apprendre de l’utilisateur ses caractéristiques, afin de pouvoir capturer les informations qu’il divulgue involontairement par ses mouvements.

Les résultats sont plutôt bons : la prédiction correcte est de 59% pour les claviers, et monte à 79% pour le « touchlogging » : l’utilisation d’un clavier virtuel tactile.

Mais cette approche possède encore – et heureusement – des limites. En l’occurrence, la montre connectée utilisée était en libre accès, ce qui a permis aux chercheurs de Copenhague de constituer les bases de données nécessaires à l’apprentissage. Car il faut aujourd’hui pouvoir suivre l’utilisateur pendant un certain temps, et entraîner le système de manière supervisée. Demain, on peut néanmoins imaginer que des bases de données génériques peuvent être mises en place, et servir de « graines » pour un apprentissage plus rapide, d’un utilisateur inconnu.

deep2

Ce développement fait suite à une première application, qui avait été conçue par des étudiants de l’université ECE Illinois (Electrical & Computer Engineering), dans le cadre du projet MoLe (pour Motion Leaks). Ces étudiants avaient également imaginé une parade : que les concepteurs des objets connectés diminuent la fréquence d’échantillonnage des capteurs (aujourd’hui environ 200 Hz) à 15 Hz, ce qui rendrait les mouvements très difficiles à analyser.

Une autre parade ? Simplement mettre la montre à l’autre poignet…

La thèse est téléchargeable ici.

tung00

« je le croirai quand je le verrai » : jamais cette affirmation n’a été aussi risquée qu’aujourd’hui, alors qu’Internet regorge d’images supposées refléter la réalité. La photo-portrait prétendue du cadavre de Ben Laden (que je me suis permis de flouter, parce que bon…), des photo-reportages dénonçant des violences policières à Chypre, ou des images de propagande gouvernementale … tous ces éléments, puisqu’ils sont visuels, nous semblent naturellement authentiques. Mais aujourd’hui, les logiciels de retouche photo sont sophistiqués, et nombre de ces éléments sont en fait fabriqués de toutes pièces. Fort heureusement, des solutions permettant de les démasquer existent – Aujourd’hui, focus sur eXo maKina, une société 100% française qui en a fait son cœur de métier.

Son fondateur et dirigeant, Roger Cozien, avec qui j’ai eu le plaisir de m’entretenir, est un expert en informatique et photographie. La société est surtout connue pour son logiciel Tungstene Factory, un logiciel impressionnant que l’on pourrait qualifier de plate-forme de photointerprétation, et permettant de savoir si une photo a été ou non manipulée ou éditée, et ce à des fins purement esthétiques, ou en vue de la truquer.

Considérons par exemple la photo suivante prise lors d’émeutes à Chypre, et utilisée ensuite à des fins de propagande anti-gouvernementales pour dénoncer des violences policières (Nota : toutes les images de cet article sont © eXo maKina). Cette image est-elle authentique ? Le policier de face porte-t’il réellement un coup de poing américain à la main droite ?

tung1

Le logiciel dispose d’une palette d’outils, permettant à l’opérateur d’appliquer des filtres et de procéder à l’analyse d’une image selon plusieurs axes : détection des ruptures dans les statistiques profondes de l’image (excavation des pixels identiques, par exemple, ou déformation des contours), détection des incohérences dans les aspects physiques de l’image (diffusion de la lumière, chrominance, luminance…), modification du bruit électronique, analyse des données EXIFS, de l’histogramme, etc… Il s’agit donc d’une plate-forme complète, destinée à assister l’expert dans son analyse. Le système fonctionne soit de manière autonome, soit en utilisant une base de données de référence.

Appliquée à l’image ci-dessus, le résultat est édifiant : le logiciel détecte des anomalies et permet d’affirmer que l’image a subi une intrusion – de fortes manipulations et une post-production importante :

tung000

Des zones altérées sont mises en évidence :

tung8

Confirmées par des anomalies dans le bruit électronique de l’image sur certaines zones :tung9

En résumé, les outils utilisés mettent en évidence que l’image a été modifiée en vue de faire passer un message politique :

tung10

Dans ce cas, la modification n’est pas purement esthétique : l’arrière-plan a été nettoyé afin de mettre en évidence les sujets au premier plan, mais au-delà, le mot « Police » sur le dossard a été profondément travaillé, ainsi que le coup de poing américain visible sur la main du policier. Même si l’on ne peut reconstituer l’image originelle, il est possible d’affirmer que la photo a subi trop de manipulations pour être authentique, il est impossible d’en tirer une quelconque information.

Dans d’autres cas, même si l’image semble suspecte, le logiciel permet de montrer que les modifications sont uniquement à visée photographique, afin d’améliorer la qualité visuelle de l’image. C’est le cas de cette photo de la manifestante Rachel Corrie, s’opposant à des bulldozers israéliens venus raser une maison à Gaza – elle sera d’ailleurs tuée par le bulldozer. Des réserves avaient été émises sur l’authenticité de la photo (problèmes supposés d’échelle entre la manifestante et le véhicule, ombres projetées…). Appliquée à cette photo, la technologie Tungstene permet d’en prouver l’authenticité : les modifications et éditions sont simplement le résultat d’un travail photographique classique.

tung2

Au-delà de l’interprétation des photos journalistiques, la société a également conçu TUNGSTENE RITUEL, une solution permettant, uniquement par analyse d’images, de détecter des contrefaçons de documents (en particulier de documents d’identité). L’intérêt est de ne pas nécessiter la présence physique de la pièce à analyser: tout peut se faire à distance puisque seule l’analyse de l’image est employée. De plus, dans la plupart des cas, le papier est authentique, ainsi que les encres. C’est donc l’analyse poussée de l’image et elle seule qui permet d’en établir ou non l’authenticité.

tung11

eXo maKina ne s’arrête pas là. Le 1er janvier 2016, la société va lancer HELIUM 3, une plate-forme pour fournir des technologies d’amplification multispectrale et de vision nocturne, pour l’analyse de vidéos. L’objectif est d’amplifier les vidéos sombres ou sous-exposées (débruitage, amplification intelligente, extraction de mouvement) de façon passive, en direct ou a posteriori, et en outre de calculer la vitesse relative des sujets observés par rapport au capteur. Les premières images divulguées sont impressionnantes : voici l’image issue de la vidéo initiale

tung3

Et l’amplification réalisée par HELIUM 3 :

tung4

Ici, l’image est analysée pour permettre le calcul automatique de la vitesse relative de déplacement du sujet :

tung7

Et enfin, une photo originale – vous conviendrez qu’elle est nettement sous-exposée ( !!!)

tung5

Et l’information récupérée par HELIUM 3.

tung6

Ces résultats impressionnants reposent donc sur une palette de compétences, une suite d’outils et d’algorithmes (ainsi qu’une méthodologie permettant de les mettre en œuvre de manière cohérente), mais aussi des compétences très pointues en termes de R&D. D’ailleurs, dans le domaine, des défis persistent : certains types de falsification de documents sont plus résistants que d’autre à l’analyse, mais surtout, le défi principal demeure la quantité massive de données à analyser. Pour pouvoir utiliser de telles techniques sur un smartphone ou un portable, il faut encore résoudre des problèmes de transport parcimonieux des images, de compression, etc…) ; c’est aujourd’hui la feuille de route de R&D de la société, qui a déjà plusieurs brevets à son actif.

tung12

Ah, et au fait, la photo de Ben Laden ? Tungstene a permis (ci-dessus) de démontrer qu’il s’agit d’un photomontage incontestable, avec des différences très claires, par exemple, entre la signature électronique du capteur qui a pris la photo originale de Ben Laden (à gauche) et celle qui a pris les photos d’une dépouille mortelle anonyme (à droite). Plus jamais vous ne croirez ce que vous verrez…

Crédits images © eXo maKina

Pour contacter Roger Cozien : communication@exomakina.fr

Et pour ceux que cela intéresse, voici un lien vers les publications d’eXo maKina 

vmr3

Nos ennemis savent aujourd’hui user et abuser de la communication visuelle. En publiant sur Internet des photos et des vidéos, ils nourrissent les bases de données des agences de sécurité du monde entier. Les images du terrain (photographies, images provenant du contrôle de personnes, renseignement d’origine image, saisie de matériel informatique ou de smartphones lors de perquisitions ou d’opérations spéciales…) contribuent également à ce déluge de données au sein desquelles trouver l’information pertinente revient à chercher une aiguille dans un super tanker rempli de bottes de foin. Comment naviguer dans ces immenses bases de données visuelles ? Comment présenter à l’opérateur les séquences pertinentes ?

vmr1

Répondre à ces questions, c’est le but du programme VMR – pour Visual Media Reasoning – de la DARPA (US Defense Advanced Research Projects Agency). Ce programme a pour objectif d’utiliser des technologies d’Intelligence Artificielle afin de permettre à un opérateur humain en possession d’une image pertinente d’en tirer toutes les informations possibles. L’idée est ainsi de lui permettre de poser des questions naturelles comme : « qui est cet individu ? », ou encore « où se situe ce bâtiment ? ». La vidéo (très sibylline) ci-après présente le concept.

Il est aujourd’hui illusoire de penser répondre automatiquement à de telles questions – l’analyse visuelle par un opérateur humain reste incontournable. Mais le système VMR permet d’en augmenter significativement les performances, en procédant d’une part à une première analyse automatique par des algorithmes de vision artificielle, et de présenter les résultats de cette première analyse par le biais d’une interface « intelligente ».

Dans l’image ci-dessous, l’interface VMR développée conjointement avec le laboratoire US Army Research Laboratory, présente à l’analyste un paysage visuel constitué de toutes les images répondant potentiellement à une question posée, organisées par groupes ou clusters dont la taille et la position correspondent à des attributs spécifiques. Plutôt que d’utiliser une arborescence de menus, l’opérateurs peut donc zoomer dans l’interface, à la manière de Google Maps, pour décider d’examiner ou d’extraire une image d’un groupe, et de la stocker pour une analyse ultérieure, ou de l’insérer dans un autre groupe. L’interface réorganise alors automatiquement les images, en fonction des actions de l’opérateur.

vmr2

L’intelligence artificielle est cachée : elle est utilisée en amont pour sélectionner les images pertinentes, et pour générer les diagrammes et groupes permettant de les rassembler. L’interface, quant à elle, facilite les actions de l’analyste en lui présentant une organisation visuelle cohérente, lui permettant de se concentrer sur des caractéristiques particulières comme la localisation ou la date de prise de vue. L’innovation est aussi dans le design de l’interface « Flat-Design », indiquant que toute l’information est présentée sur une seule « couche », sans avoir à rechercher dans des menus. Il s’agit d’un concept emprunté au grand public, et que l’on peut voir par exemple dans l’application Photo d’Apple.

La DARPA reste discrète sur les algorithmes de vision artificielle utilisés en amont – elle communique en revanche plus facilement sur l’interface VMR, qui, selon elle, constitue une véritable innovation dans le domaine, et repose sur l’observation que le cerveau humain est apte à analyser des images en grande quantité, sans faire appel à des fonctions de raisonnement de haut niveau. Une interface pour le cortex temporal inférieur, en somme…

oto4

On connaissait déjà l’utilisation de l’analyse de sons en temps réel pour, par exemple, la détection de départ de coup. Mais ici, l’innovation concerne une application très duale et grand public ; la start-up Otosense, basée à Cambridge, est en effet connue pour avoir développé une application destinée à aider les personnes sourdes à reconnaître des alertes sonores : le téléphone, une sonnerie à la porte, un chien qui aboie, etc,…oto2

Ses applications sont téléchargeables sur smartphone, pour le grand public. Elle travaille également avec Orange, et dans le domaine de l’environnement industriel, et de l’automobile.

oto3

Mais récemment, cette société s’est trouvée dans le radar de l’US Air Force, et a finalement remporté un projet CRADA (Cooperative Research and Development Agreement) au profit du Battlespace Acoustics Division de l’armée de l’air américaine. Cette division qui fait partie du laboratoire de recherche du 711th Human Performance Wing de l’US Air Force a pour objectif (je cite) « d’optimiser la performance du combattant, à travers une approche centrée sur l’humain », et en l’occurrence l’audition.

Dans ce projet collaboratif, il s’agit d’utiliser la technologie Otosense pour équiper un dispositif de micros monté sur le casque du combattant, en vue de détecter les sons associés à des actions de combat et en particulier de reconnaître les situations de risque. L’idée est de pouvoir générer des alarmes destinées à fournir des informations aux sauveteurs et infirmiers du champ de bataille. Une approche originale et qui repose sur la plate-forme IATIS mettant en œuvre les algorithmes de détection, d’inférence, d’identification et de localisation de son développés par Otosense. Il s’agit ainsi, pour chaque type de combattant et de situation, de développer une base de données sur mesure associant des types de sons et les risques associés.

oto5

Ainsi, un fantassin ou un chasseur parachutiste seraient équipés du même système, mais avec des bases de données différentes permettant d’optimiser la détection de situations potentiellement dangereuses pour chacun. Malheureusement, et malgré mes recherches, il est difficile aujourd’hui de trouver davantage d’informations sur le programme, mais l’approche est innovante, et certainement disruptive.

Oh, et un dernier point en passant : derrière cette société prometteuse se cache… un français, Sébastien Christian, diplômé de l’université de Nice-Sophia Antipolis. Si vous voulez entendre sa conférence sur la sémantique, voici la vidéo de la conférence qu’il a donné à TEDx Cambridge.

biom2

Connaissez-vous le système Crossmatch SEEK II (Secure Electronic Enrollment Kit)? Il s’agit d’un outil d’identification portable utilisé par les forces spéciales américaines, ainsi que l’US Navy, et permettant, sur le terrain, de capturer une empreinte digitale, le visage, et le scan de l’iris d’un individu suspect, et d’interroger en temps réel une base de données (en l’occurrence celle du FBI) même si la couverture radio est faible.

Le système SEEK II est déjà une évolution du précédent système baptisé (vive les acronymes) BATS – pour Biometrics Automated Toolset, ou HIIDE pour Handheld Interagency Identification Detection System, qui ne permettaient la recherche que sur une base dite ABIS (Automated Biometric Information System – ouf !), ne contenant que les bases de données des personnes dans les pays dans lesquels les forces américaines opèrent. Ce système portable est connecté à un ordinateur portable DELL M4800 connecté aux bases de données aux Etats-Unis.

biom3

 Tout cela pour dire que le concept d’un outil nomade d’identification biométrique est depuis longtemps intégré dans la doctrine américaine, notamment chez les Forces Spéciales (notamment les commandos SEALS).

Cet outil a notamment été utilisé dans l’identification du corps d’Oussama Ben Laden, ainsi que dans l’arrestation d’un certain nombre de terroristes présumés, après que leurs empreintes digitales ont été trouvées dans des caches d’explosifs. Incidemment, les autorités afghanes profitent de l’existence de l’outil pour recueillir les empreintes digitales de l’ensemble de la population, et établir des fichiers biométriques.

biom1

Aujourd’hui, les FS américaines veulent se doter d’un nouvel outil dans le cadre du programme Identity Dominance system (IDS) 2, et capable notamment d’effectuer une identification à distance des individus contrôlés. Parmi les fonctions supplémentaires souhaitées, on trouve aussi l’identification via l’empreinte palmaire, la voix, l’empreinte génétique (ADN), la géométrie de la main, son réseau vasculaire, ou encore l’allure générale et la démarche (!). Et bien évidemment, sur la liste de Noël figurent l’autonomie, la compacité et le facteur de forme.

Un appel d’offres est émis par le US Marine Corps Command est en cours d’émission. Le point de contact peut être trouvé ici.

qc4

Il y a déjà quelques temps, j’avais parlé sur ce blog de l’accélération de la recherche visant à développer un ordinateur quantique (QC pour Quantum Computer) – vous trouverez l’article sur cette page. On rappelle qu’un QC est un ordinateur qui manipule des qbits, donc des bits d’information qui au lieu de prendre la valeur 0 ou 1, sont dans les deux états à la fois, ainsi que dans toutes les combinaisons possibles de ces états. Le résultat, bien qu’intuitivement difficile à appréhender, est un supercalculateur capable de cribler en parallèle un espace de recherche mathématique, avec pour résultat qu’une clé de chiffrage de 700 bits serait déchiffrée en quelques secondes au lieu d’une année actuellement avec l’aide de 400 ordinateurs.

La National Security Agency américaine (NSA) a publié récemment sur son site (voir cette page) une déclaration annonçant la transformation des algorithmes de chiffrement actuellement utilisés par la défense et le gouvernement américains en nouveaux algorithmes capables de résister à un ordinateur quantique. Je vous laisse lire en version originale :

« we will initiate a transition to quantum resistant algorithms in the not too distant future. Based on experience in deploying Suite B, we have determined to start planning and communicating early about the upcoming transition to quantum resistant algorithms. Our ultimate goal is to provide cost effective security against a potential quantum computer. »

qc1

Les codes type RSA ou Diffie-Hellman (je laisse les lecteurs faire une recherche sur ces algorithmes pour ne pas inutilement alourdir la lecture) sont directement et facilement déchiffrables par un ordinateur quantique, puisque reposant sur  la difficulté à résoudre des problèmes mathématiques complexes comme la factorisation de nombres premiers ou les courbes elliptiques. Des problèmes pour lesquels les QC sont particulièrement adaptés.

qc3

A l’inverse, les spécialistes en cryptographie ont depuis longtemps anticipé cette « course au chiffrement » pour développer des algorithmes difficiles à déchiffrer par un QC. Ainsi, la cryptographie fondée sur les « lattices » (surfaces maillées multidimensionnelles) joue sur la difficulté à localiser un point dans une surface à plus de 500 dimensions. Sans rentrer dans les détails, dans ce type de codage, une position dans l’espace multidimensionnel représente la clé publique, alors que le plus proche point à localiser correspond à la clé privée. D’autres algorithmes « QC-résistants » existent, comme par exemple les codages reposant sur l’utilisation  d’équations polynomiales complexes.

Toutefois, même ces nouveaux algorithmes peuvent être « cassés », comme l’a montré l’an dernier une équipe du Government Communications Headquarters (GCHQ) britannique en publiant une faiblesse exploitable par un QC dans leur code à base de lattice baptisé « Soliloquy », déclenchant ainsi une tempête dans la communauté des cryptographes (discrète s’il en est : ce n’est pas passé sur France télévisions…).

Le résultat : une recherche effrénée aujourd’hui pour identifier les algorithmes capables d’être déchiffrés par un QC et ceux qui ne le sont – pour l’instant – pas. Ce qui est intéressant dans cette histoire, c’est que la NSA est donc en train de prendre des précautions par anticipation sur une technologie potentiellement menaçante, avant même que cette technologie ne soit développée et ne montre ses capacités. Un peu comme si nous développions un système de défense contre « l’Etoile Noire » afin d’éviter qu’elle ne détruise notre planète…

Tor1

Alors que l’université d’été de la Défense a souligné l’importance du contrôle Cyber dans la défense et la sécurité, (et au passage a démontré qu’il est difficile d’assister à un tel évènement et de garder en même temps le rythme du blog – désolé pour cette parenthèse), voici OnionView, un portail web permettant de visualiser le développement du réseau TOR.

tor4

On rappelle que TOR est un réseau dont le nom est l’acronyme de « The Onion Router » ( !) car il repose sur le principe du « routage en oignon ». Conçue initialement par le Naval Research Laboratory en 1990, cette technologie permet de faire « rebondir » les échanges TCP au sein d’Internet afin de transmettre des flux de manière anonyme. On peut l’assimiler à un réseau superposé à Internet, dans lequel chaque client choisit un chemin aléatoire parmi des nœuds TOR. Chacun des nœuds n’a accès qu’à l’adresse IP du précédent et du suivant. De plus, chaque nœud repose sur une cryptographie hybride : il dispose d’une clef secrète qui lui est propre et ne connaît que son prédécesseur et son successeur au sein du chemin.

tor2

 

Je simplifie évidemment l’explication : si vous souhaitez comprendre le principe de TOR, vous pouvez aller consulter cette page.

En 2010, le réseau TOR comptait 2000 nœuds. Il en compte près de 6500 aujourd’hui. Le portail OnionView (dont vous comprenez maintenant le nom) a pour but de compter les nœuds et de suivre l’expansion du réseau. Pour mémoire, voici le « top 3 » des pays ayant le plus de « nœuds TOR » :

  • Allemagne : 1364
  • USA : 1328
  • France : 714

Le centre d’excellence de l’OTAN en cyberdéfense a néanmoins montré que l’anonymat procuré par TOR n’était pas garanti à 100% – mais que sa combinaison avec d’autres technologies (comme les VPN) pouvait améliorer significativement les performances d’un tel réseau. Se posent alors un certain nombre de questions légales et judiciaires, comme la responsabilité légale des opérateurs d’un nœud, ou la valeur juridique d’une collecte de preuves ayant transité par le réseau.

tor3

Dans le contexte de l’expansion des cyberterroristes liés à des organisations comme Daech (ou au « DarkWeb » comme SilkRoad – voir image ci-dessus), se pose néanmoins la question de la surveillance du réseau TOR, et de sa faisabilité technique et juridique. Autant de questions qui devraient intéresser la toute nouvelle réserve dédiée à la cyberdéfense. Il y a peu, le US Homeland Security Dept a essayé d’intimider une petite bibliothèque de Lebanon (New Hampshire) afin qu’elle ferme son hébergement d’un nœud TOR. Après une brève fermeture…elle a ouvert de nouveau l’accès au réseau.

Pour accéder à OnionView et visualiser l’expansion de TOR, suivez ce lien.

robot3

Il s’agit d’un débat récurrent, et qui enfle de plus en plus, sous-tendu à la fois par l’imaginaire collectif et une certaine tendance journalistique au sensationnel. Je veux parler du débat sur l’interdiction des « robots tueurs ». Après avoir alarmé l’opinion sur les dangers de l’intelligence artificielle (à mon sens, la bêtise naturelle est une plus grande menace, mais bon…), Stephen Hawking, Elon Musk ou encore Steve Wozniak et Noam Chomsky viennent en effet de signer une lettre ouverte pour l’interdiction des armes autonomes.

robot2

Il s’agit là d’un sujet complexe, et je ne pouvais pas ne pas réagir ou en tout cas tenter de donner mon opinion dans ce débat. Pardonnez moi par avance si j’enfonce quelques portes ouvertes.

En premier lieu, je pense qu’il convient de ne pas faire d’amalgames entre IA, robotique, et armes autonomes. La robotique de théâtre est une réalité, mais contrairement à ce que l’on pourrait penser, elle est aujourd’hui essentiellement orientée vers des fonctions de soutien ou d’appui. Au-delà, à quoi sert un robot sur le champ de bataille ? :

  • A protéger, pour éloigner l’homme de la menace ou de la zone exposée : fonctions de déminage, de reconnaissance…
  • A durer : l’attention d’un robot ne décroit pas au cours du temps : fonctions de surveillance…
  • A permettre accroître l’efficacité opérationnelle, par exemple en servant de « mule » pour porter les charges lourdes, en assurant une permanence de télécommunications, mais aussi, et c’est là le débat, en délivrant de l’armement.

robot6

Donc plus que de parler de robots tueurs (terme entretenant une certaine confusion anthropomorphique), on parle ici de SALA (systèmes d’armes létaux autonomes) ou, en anglais, LAWS ( !) pour Lethal Autonomous Weapons Systems.

Le problème consiste à définir ce que l’on entend par « système autonome ». Un missile de croisière, même si le ciblage est initié par l’homme, est aujourd’hui complètement autonome dans les phases terminales du vol (dans certains cas, une intervention humaine est même physiquement impossible). Cependant, ces systèmes sont explicitement en-dehors du débat suscité par les signataires de la lettre, même si ce sont des systèmes autonomes supervisés.

Donc de quoi parlons nous ? De systèmes létaux (en soi un terme restrictif :  est il plus humain d’être blessé gravement ?) autonomes, sans homme dans la boucle, et qui n’existent pas encore. Les seuls SALA aujourd’hui en service, notamment en Israël et en Corée du Sud, sont des sentinelles qui, si elles sont technologiquement capables de tirer sur des intrus, sont inféodées à la décision d’un humain dans la boucle (ci-dessous, le robot sentinelle SGR-A1 de Samsung).

robot1

Allons plus loin dans la restriction : on parle d’autonomie de décision, donc pas de systèmes préprogrammés pour effectuer des tâches. Ni de systèmes avec un humain dans la boucle pour le ciblage. Donc, aucun système actuel, ni même pressenti dans un futur proche.

De fait, les deux seuls pays à avoir aujourd’hui une politique officielle sur les SALA (les Etats Unis et le Royaume Uni) ont déjà explicitement déclaré qu’un SALA doit être conçu pour permettre à un commandant ou un opérateur d’évaluer humainement le niveau d’usage de la force. Donc d’exercer un contrôle.

Alors doit-on – sur l’idée que l’IA deviendrait capable de décisions autonomes telles qu’un humain pourrait les prendre, une affirmation plus que discutable compte tenu du niveau actuel de la technologie sous-jacente – interdire de manière préemptive un tel système ? Est-ce une application aveugle d’un principe de précaution mené à un tel degré qu’il devient un principe incapacitant? Comme le déclare microbiologiste Didier Raoult, « le principe de précaution privilégie la prévention de risques virtuels aux dépens de risques, eux, bien réels. Toute innovation technologique s’accompagne nécessairement d’incertitudes. Serions-nous allés sur la Lune si l’on avait appliqué le principe de précaution ? Finalement, ce que le principe de précaution refuse d’admettre, c’est que l’avenir est imprévisible »

Mon opinion est donc qu’il est dangereux d’empêcher ou de limiter la recherche sur l’Intelligence Artificielle sous le prétexte qu’un jour, un « Terminator » conçu par un humain pourrait décider de tuer d’autres humains. Produire des armes totalement autonomes n’est dans l’intérêt de personne et on pourrait disserter longuement comme le fait excellemment le diplomate et philosophe Jean-Baptiste Jeangène Vilmer sur l’humanité d’être tué par un humain ou un robot (la bombe nucléaire est elle plus « humaine » que le fait d’être tué par une sentinelle robotisée ?) ou sur le prétendu « accès facilité » à la guerre par l’utilisation d’armées de drones autonomes.

robot8

L’interdiction préventive des SALA n’a pas de sens et ne stopperait certainement pas des individus ou états qui souhaiteraient les utiliser dans un cadre non conforme aux droits de l’homme. A la différence des mines antipersonnel, un SALA complètement autonome et doté de « conscience » ou « d’intelligence » n’existe pas encore et n’a donc pas démontré son illégalité.  Et la recherche, dans ce domaine, est de toutes façons duale, donc accessible, in fine, aux utilisateurs motivés.

En revanche, encadrer comme l’ont fait les USA et le Royaume-Uni l’utilisation de tels systèmes afin qu’ils ne puissent, même si la technologie le permettait, fonctionner sans un « veto » humain (au minimum) me semble souhaitable. D’ailleurs, qui nous dit qu’un robot ne serait pas en mesure de mieux respecter les règles d’engagement que les hommes eux-mêmes (relire les lois d’Asimov) ?

Et, in fine, une question n’a pas été posée, et elle me semble plus prégnante : comment maîtriser le contrôle de ces systèmes autonomes armés avec une informatique qui progresse mais qui devient difficile à maîtriser, contrôler, débugger de façon sûre ? Cela, en soi, plaide pour le maintien de l’homme dans la boucle.

robot5

Ce n’est bien évidemment que mon opinion, mais je souhaitais la partager, au moment où l’on lit tout, et surtout n’importe quoi sur le sujet, et que des amalgames dangereux et populistes font leur apparition. La robotisation de l’espace de bataille est une réalité. L’émergence de la conscience humaine dans une machine est aujourd’hui de l’ordre de la science-fiction. Le débat éthique sur l’armement autonome doit guider son développement.

On pourrait aussi demander aujourd’hui l’interdiction préventive de l’Etoile Noire, capable de détruire une planète. Elle non plus n’existe pas encore.

robot7