Archives de la catégorie ‘Informatique et IA’

vc2

Retour de vacances : ce blog reprend son cours. Avec, pour ce premier article, un sujet d’actualité puisqu’il touche à une approche innovante concernant la sécurité des systèmes informatiques. Celle-ci est souvent abordée sous l’angle logiciel ; ici, c’est l’aspect matériel qui est en cause.

Imaginons un petit scénario : suite à un appel d’offres pour la réalisation d’un système critique (gestion d’une usine, système de contrôle embarqué, système d’armes, lanceur spatial, système médical, machine à voter, bref, quelque chose qui ne DOIT PAS dysfonctionner), un acteur est retenu pour « outsourcer » la fabrication d’un processeur destiné à intégrer ce système. Moins cher, innovant, mais basé dans un pays lointain, il respecte toutes les contraintes du cahier des charges. Mais derrière l’usine de fabrication œuvre un réseau de pirates informatiques contrôlés par un état. Les processeurs livrés seront conformes en tout point aux spécifications, mais avec une petite fonction supplémentaire : un cheval de Troie codé « en dur », permettant ainsi aux pirates de prendre le contrôle du processeur, et de menacer, le moment venu, l’infrastructure critique concernée. Science-fiction ? Non, car de telles technologies existent, et le recours à la sous-traitance dans le domaine est généralement la norme.

vc3

C’est un tel scénario qui a dû inspirer le chercheur Siddharth Garg, de la NYU Tandon School of Engineering. Sa solution : développer un processeur certifié, dont la fonction consiste à vérifier le bon fonctionnement d’un autre processeur. Le système repose en fait sur la collaboration entre le processeur sous-traité (nous l’appellerons ST) et le processeur vérificateur (nous l’appellerons V). Rappelons que l’objectif est d’utiliser V pour déterminer le bon fonctionnement (et l’absence de code malicieux) dans ST.

VC1

Pour ce faire, le cahier des charges de ST inclut un module dont l’objectif est de prouver que les calculs effectués par le processeur sont corrects. Une fois le processeur livré, un second processeur (V) a pour fonction d’évaluer que la preuve livrée par le module embarqué dans ST est réelle. Le processeur ST peut être sous-traité. Le processeur V est quant à lui très simple : il est réalisé sous forme d’une ASIC (application-specific integrated circuit) par un prestataire de confiance. La technologie est accessible partout, et ne nécessite pas l’intervention d’une fonderie évoluée (sans cela, le système se mordrait la queue). Il s’agit d’une implémentation matérielle d’une technique connue sous le nom de « Verifiable Computing ».

L’innovation est donc réelle, même s’il reste quelques problèmes à surmonter ; en particulier, les délais de calcul induits par la vérification, et la bande passante nécessaire entre les processeurs ST et V.  Car le système fonctionne en permanence : chaque fois que ST reçoit une commande, il fournit à la fois le résultat, et la preuve de bon fonctionnement qui sera validée par V.

Le système, ingénieux, est appelé Zebra. Il est encore à l’état de prototype, mais l’approche sera bientôt testée en vraie grandeur. Car les enjeux sont critiques : prévenir tout vol de données (et notamment les clés de cryptage), éviter des attaques ciblées sur des infrastructures critiques et connectées.

Pour les plus courageux (et ce n’est rien de le dire), l’article original est téléchargeable ici.

 

planx3

Oui, je sais, je parle beaucoup des projets DARPA. Mais avec plus de 3 milliards de budget, il n’est pas étonnant que des projets ébouriffants voient le jour régulièrement. Celui-ci concerne la cyberdéfense, et s’appelle PLAN-X. Et il est pour l’instant doté de 125M$/an (depuis 2012).

L’idée est de disposer d’un outil permettant, en temps réel, une navigation dans le cyberespace, une visualisation interactive des données, et l’élaboration de plans graphiques d’opérations. Comme dans les meilleurs films de science-fiction, l’opérateur de PLAN-X peut visualiser les réseaux et, le cas échéant, les intrusions en temps réel.

planx1

L’outil est présenté par la DARPA comme un outil d’unification des systèmes de cyberattaque et de cyberdéfense, sous forme d’une interface facile d’utilisation pour les « hackers militaires américains » (je cite) et a vocation à fournir un partage de la situation tactique (situational awareness) du cyberespace d’opérations. Ouf.

planx4

PLAN-X permet d’explorer des réseaux visuellement, et de déclencher des plans d’opération (envoi d’une sonde, scan d’un réseau, recherche de cibles ou de vulnérabilités, etc…). L’utilisateur est littéralement « projeté » dans le cyberespace, par l’utilisation de techniques de visualisation de données immersives. Il s’agit réellement d’une extension des techniques de cartographie militaire au cyberespace : un opérateur peut ainsi donner une mission de défense d’un « périmètre virtuel clé » : serveurs, routeurs, passerelles, ou toute autre zone sensible du cyberespace. Vous trouverez ci-dessous une vidéo de présentation par le chef de projet de la DARPA Frank Pound assez longue (je vous conseille de regarder la partie démo vers 28 minutes).

Pour construire leur modèle de données, les développeurs de PLAN-X  se sont inspirés du modèle CybOX, un acronyme signifiant « Cyber Observable Expressions », disponible en suivant ce lien. Il s’agit d’un langage structuré permettant de représenter des évènements cyber-observables, par exemple la création d’une clé de registre, le trafic réseau parvenant à une adresse IP donnée, etc… Le système a été notamment développé par la société américaine MITRE. PLAN-X agrège nombre de ces techniques : ainsi des standards pour échanger des informations sur les menaces Cyber comme STIX ou TAXII, ou le langage de programmation visuelle SCRATCH permettant de construire graphiquement des plans d’action.

Le développement de PLAN-X a été confié à quelques géants comme Raytheon BBN et Northrop Grumman, mais de plus petites structures ont également été sollicitées. Ainsi, le système a été adapté à des lunettes de réalité virtuelle de type OCULUS RIFT avec l’aide de deux sociétés : Frog Design et Intific.

planx2

La démonstration permet de se projeter dans l’environnement virtuel du cyberespace en 3 dimensions, et de « tourner » autour des données (l’image ci-dessous, assez déformée, montre ce que voit l’opérateur à travers ses lunettes).

planx5

 Après avoir été testé lors des exercices CyberFLAG et CyberGUARD en juin dernier, le système est annoncé pour une mise en service opérationnelle en 2017. Le premier objectif est de permettre à la Cyber Mission Force (CMF) de conduire des opérations coordonnées dans le cyberespace, via cet outil immersif véritablement impressionnant. Un pas de plus vers un futur à la « Minority Report ».

 

ecu3

Dans un excellent livre que je vous recommande, « Crimes du Futur » par Jérôme Blanchart (ed Premier Parallèle), un chapitre fait froid dans le dos. Bon, en fait tous les chapitres, mais je vous en reparlerai. Celui-ci s’intitule « Google Car : plutôt Choupette ou Christine ? » et décrit les modes opératoires des criminels du futur, et dans une vision hélas prémonitoire, évoque l’utilisation d’un camion ou d’une voiture pour commettre un attentat contre une foule. La seule différence par rapport à la tragique actualité : il n’y a personne dans la voiture : celle-ci est une voiture du futur, donc connectée, qui a été piratée par un terroriste qui l’utilise comme arme roulante téléopérée. Glups.

ecu0

En 2015, les chercheurs Charlie Miller et Chris Valasek ont montré qu’il était possible de prendre le contrôle d’une Jeep Chrysler sur une autoroute californienne, en profitant d’un bug dans le système d’exploitation mal sécurisé du véhicule (la vidéo, spectaculaire, est visible ci-dessous – un journaliste de Wired était à bord):

Malgré le caractère spectaculaire de la chose, le dommage était relatif : le véhicule était connecté, mais pas autonome. Imaginons que demain, on puisse prendre le contrôle complet sur un véhicule, et donc le diriger… On n’arrête pas le progrès.

Mais comme toute attaque, des contre-mesures sont en cours de développement. A la prochaine « Usenix security conference » qui aura lieu le mois prochain (10-12 août à Austin), deux chercheurs de l’université du Michigan, Kyong-Tak Cho et Kang Shin, vont présenter un nouveau système appelé CIDS pour Clock-based Intrusion Detection System, et dont l’objectif est de se prémunir contre une prise de contrôle ou le piratage d’un véhicule connecté.

Le principe est ingénieux : il s’agit de constituer une base d’empreintes numériques propres à chaque composant capable de communiquer dans le véhicule. Car dans un véhicule connecté, tous les organes concernés communiquent à l’aide de ce que l’on appelle un bus CAN : ce sont les composants dits ECU (pour Electronic Control Units), et ils regroupent freins, boite de vitesse, direction, phares, etc…

ecu2

Le problème est donc de les authentifier pour qu’un pirate ne puisse pas prendre leur contrôle à distance en se faisant passer pour le calculateur du véhicule. Pour cela, les chercheurs exploitent…les erreurs de datation, ce que l’on appelle des distorsions d’horloge : dans chaque véhicule, le temps (donc la datation des événements) repose sur des processeurs qui se fondent sur des cristaux oscillants (comme dans une montre à quartz). Or en fonction des petits défauts de fabrication de chaque cristal, et de la température, de minuscules distorsions apparaissent. Ceci engendre un très léger décalage temporel propre à chaque processeur, donc à chaque véhicule.

ecu1

Les chercheurs ont donc développé un nouveau dispositif capable d’identifier et d’analyser ces défauts, et la variance de cette dérive avec le temps. Baptisé CIDS (ci-dessus), il se connecte sur le port OBD-2 du véhicule (celui en-dessous du tableau de bord sur lequel le garagiste se branche pour vous dire que ça va coûter cher). Après plusieurs tentatives d’attaques sur divers véhicules, ils ont pu identifier si les messages reçus par chaque ECU étaient authentiques ou résultaient d’une intrusion.

Une preuve de concept convaincante, même si la faille de cette mesure consisterait à « véroler » un ECU du véhicule pour en capturer les caractéristiques pour pouvoir les imiter. Une approche évoquée par le hacker Craig Smith lors de la dernière conférence DerbyHack 2015 de Louisville, lorsqu’il a montré un appareil de 20$ capable d’infecter un véhicule en se branchant…sur l’outil de diagnostic du garagiste. Dans le domaine, la course aux armements est donc loin d’être achevée.

PS. Le rythme estival m’autorise à ralentir un peu mes publications, avant interruption des programmes à compter du 28 juillet. Vous ne m’en voudrez pas, j’espère…

fan3

Tout le monde le sait : le meilleur moyen de protéger un ordinateur hébergeant des données sensibles, est de le déconnecter physiquement de tout réseau. C’est ce que l’on appelle « l’air-gap » : l’ordinateur ne possède aucune connexion d’aucune sorte, et est ainsi protégé de toute intrusion… en théorie. C’est évidemment indispensable dès lors que des réseaux d’ordinateurs spécifiques protégés doivent être mis en place : communications militaires, monde bancaire, mais aussi (et cela fera l’objet un article prochain) les réseaux de contrôle ou d’automates industriels critiques (SCADA), qui sont aujourd’hui une vulnérabilité majeure de nos infrastructures (ce sera pour une autre fois).

Car évidemment, dès lors que l’on développe un système de protection, les adversaires cherchent à le contourner. Pour pirater un ordinateur « air-gapped », plusieurs techniques ont déjà été examinées. La plus connue et la plus immédiate est l’interception des ondes électromagnétiques (nous parlerons un jour du système Cottonmouth-I de la NSA), mais il existe d’autres techniques plus exotiques comme l’utilisation et le détournement des patterns dans la chaleur émise par le PC.

fan5

On peut ainsi mentionner un système appelé BitWhisper et développé par des chercheurs de l’université Ben Gurion de Jérusalem, qui utilise l’émission de chaleur de l’ordinateur ciblé ainsi que les senseurs thermiques internes pour intercepter (et communiquer) des informations critiques comme des mots de passe ou clés de sécurité. Les chercheurs ont ainsi montré qu’ils pouvaient intercepter des commandes d’une machine air-gapped – voir la vidéo ci-dessous. En l’occurrence, ils arrivent à faire passer une information entre deux machines non physiquement connectées par le détournement des informations thermiques, arrivant ainsi à contrôler un jouet lance-missile.

Cette technique utilise les fluctuations de température de la carte-mère, et détourne le déclenchement par senseurs internes des ventilateurs permettant le refroidissement. Il s’agit d’un malware (qu’il faut donc implanter sur la cible, ce qui constitue une limite de l’exercice, je le concède), qui utilise, un peu comme un code morse, le déclenchement des senseurs de température interne pour transmettre de l’information à l’ordinateur espion. En pilotant le senseur pour permettre une augmentation de 1°C sur une certaine période, l’ordinateur receveur comprend « 1 ». En permettant la restauration de la température à son niveau initial sur la même période, le receveur comprend « 0 ». C’est long, c’est fastidieux mais c’est suffisant pour récupérer ou transmettre de l’information.

fan4

Ce logiciel va même jusqu’à prendre en compte les fluctuations normales de température afin de s’y « fondre » pour qu’un observateur externe ne puisse pas comprendre qu’une attaque a lieu. Un ordinateur infecté par bitWhisper envoie également un « ping » thermique par ses senseurs, de manière à écouter ses voisins et engager une communication avec un autre ordinateur infecté, et ce dans les deux sens (écoute des données, envoi de commandes). L’article est disponible ici.

Ce sont ces mêmes chercheurs de Ben Gurion qui viennent de mettre au point une nouvelle technique fondée sur l’écoute des ventilateurs de refroidissement du PC. Elle repose sur l’analyse des émissions sonores et de leurs variations ; car si un PC protégé ne possède généralement pas d’enceintes (et que son haut-parleur interne doit être désactivé), il comprend plusieurs ventilateurs : sur la carte mère, le châssis, l’alimentation, … Tous ces ventilateurs génèrent une fréquence sonore (liée à la fréquence de passage des pales), qui augmente avec la vitesse de rotation du ventilateur.

L’idée a alors consisté à développer un nouveau malware, qui va générer du code binaire à partir de la fréquence du ventilateur : 0 pour 1000 rpm, 1 pour 1600 rpm. Un receveur placé à proximité, comme un smartphone, en l’occurrence un Samsung Galaxy S4  avec une fréquence d’échantillonnage de 44.1Hz (voir le dispositif expérimental ci-dessous) va écouter ce code pour transmettre les données piratées. Le malware s’appelle Fansmitter ; il permet de transmettre jusqu’à une distance de 8m l’information à un système de réception à un taux de 900bits/h.

fan1

Il permet même d’utiliser des différences de fréquences sonores de 100Hz pour générer la différence entre le 0 et le 1, afin d’éviter qu’un observateur dans la pièce puisse se rendre compte de l’attaque (alors que le receveur est capable de le faire, même si la pièce est bruitée – en l’occurrence, dans le test effectué par l’équipe de recherche menée par Mordechai Guri, la pièce comportait plusieurs serveurs, un niveau de bruit ambiant habituel et un système de climatisation actif). L’article original peut être téléchargé ici.

Tout ceci permet de montrer qu’un ordinateur air-gapped n’est intrinsèquement pas à l’abri. En tout cas, tout malware pourra exploiter les failles qui sont de toute façon inhérentes au fonctionnement d’un ordinateur. Le seul bémol à ce constat est la nécessité d’introduire un malware dans l’ordinateur ciblé, ce qui est une véritable barrière d’entrée. Une fois celle-ci passée, c’est hélas trop tard.

alphap4

Décidément, l’intelligence artificielle est à la mode. Aujourd’hui, l’actualité est celle d’un projet commun entre l’université de Cincinnati et la société américaine Psibernetix. Et pas de Google ni de Facebook. Je reviendrai d’ailleurs dans un futur article sur les réelles promesses et les limites de ce concept marketing que l’on appelle « deep learning » et qui remet au goût du jour une technique de réseaux de neurones datant… des années 50. Mais ce sera pour plus tard, puisqu’ici, il ne s’agit pas de réseaux de neurones ni de deep learning mais d’une technique plus récente (mais des années 1960 quand même…).

De quoi s’agit-il ? D’un article publié dans le « Journal of Defense Management », présentant le système ALPHA, développé par la société Psibernetix à partir des travaux d’un chercheur nommé Nicholas Ernest, et qui a réussi à battre un pilote (retraité) de l’US Air Force, le Colonel Gene Lee, dans plusieurs combats simulés.

alpha2

On en parle pas de « dogfighting » (combat tournoyant) mais de tactiques, techniques et procédures aériennes nourries par les informations obtenues par les différents capteurs de chaque aéronef, et qui sont adaptées en temps réel par ALPHA. La technique d’intelligence artificielle sous-jacente repose sur une combinaison de logique floue et d’algorithmes génétiques. Pour faire simple : la logique floue est une technique de modélisation du raisonnement, dans laquelle les règles logiques ne sont pas « vraies » ou « fausses » mais peuvent prendre toute valeur entre « complètement vraies » et « complètement fausses » (je simplifie, bien entendu). Les algorithmes génétiques, quant à eux, cherchent à trouver la solution d’un problème en le modélisant sous forme d’une « population de solutions », dont les plus adaptées se recombinent entre elles sur le modèle de l’évolution, afin de cribler en parallèle tout l’espace de recherche, puis de converger vers une solution adaptée, génération après génération (là encore, je simplifie à outrance).

ALPHA repose donc sur une combinaison de ces deux techniques, mais surtout, sur la possibilité de décomposer des problèmes complexes en problèmes plus simples, capables de fonctionner sur de petits processeurs comme ceux des ordinateurs de bureau, ou de processeurs de type « raspberry pi ». Avec une capacité d’adaptation à la microseconde.

alpha1

ALPHA a été testé dans un exercice de tactique aérienne opposant des « agresseurs » rouges, ne disposant pas de couverture AWACS et dotés de missiles à courte portée, à des avions « bleus » dotés de missiles à plus longue portée, et d’une protection AWACS. ALPHA a commencé par s’entraîner contre lui-même, avant de se confronter à un programme d’IA développé par le US Air Force Research Lab. Il s’est ensuite opposé au Colonel Lee, un expert du domaine, ancien « USAF Air Battle manager », instructeur au sein de l’école de combat aérien, et lui-même pilote de chasse chevronné.

alphap3

Le résultat : dès que le Colonel Lee a pris manuellement le contrôle d’un avion bleu, il s’est fait battre à plate couture par ALPHA, capable d’exploiter de manière remarquable les données remontées par les capteurs de chaque appareil, et les erreurs de pilotage du colonel. D’après ce dernier, ALPHA est « l’IA la plus agressive, dynamique, adaptative et crédible jamais développée ».

Selon ses concepteurs, ALPHA pourrait être utilisée dans un mode de combat human/machine team, c’est-à-dire pour contrôler une escadrille de drones escortant des avions pilotés. Sa capacité de contrôle et d’adaptation à la microseconde en font en tout cas un candidat très crédible pour une telle tâche.

mov1

Ce n’est pas la première fois que nous parlons ici des caméras thermiques intelligentes. Mais ici, il s’agit d’une réelle convergence entre deux technologies : la vision thermique, et l’interprétation automatique d’images par vision artificielle. Cette convergence est matérialisée par l’alliance entre deux références du domaine : la société FLIR bien connue pour ses technologies de vision thermique par infrarouge, et la société MOVIDIUS, spécialiste de la vision artificielle embarquée.

Movidius est une société californienne qui développe des solutions dites de VPU pour Vision Processor Unit ; son architecture baptisée Myriad 2 est en fait un processeur spécialisé dans la vision artificielle embarquée. Il se compose d’un processeur DSP de traitement du signal permettant d’exécuter 150 milliards d’opérations par seconde, en ne consommant que 1,2 watts.

mov2

Ces deux sociétés viennent d’annoncer le fruit de leur collaboration : la caméra BOSON, une caméra thermique embarquant le Myriad 2 (possédant 12 cœurs de calcul programmables) et permettant d’implémenter in situ des algorithmes de traitement avancé de l’image, filtrage du bruit, et analyse d’objets. La caméra BOSON intègre les algorithmes de base, et l’utilisateur dispose de puissance de calcul et de mémoire disponibles pour implémenter ses propres traitements.

Le résultat ? Une caméra thermique miniaturisée, de faible consommation, et embarquant une intelligence artificielle permettant le traitement automatisé et en temps réel des images. Il devient ainsi possible de réaliser de la détection et du suivi d’images, de la détection de geste ou de mouvement, ou d’extraire des caractéristiques de haut niveau permettant d’implémenter une identification automatique de cible d’intérêt et un traitement de l’image correspondante.

Cela permet de réaliser l’essentiel des opérations au sein du capteur lui-même : toutes les opérations sont effectuées localement, sans devoir surcharger la bande passante du réseau, ni devoir transmettre des informations en vue d’en faire l’analyse sur un serveur distant. Une économie de temps, un gain de sécurité et d’efficacité : on peut ainsi imaginer qu’un drone aérien soit capable de réaliser l’interprétation automatique et immédiate des images qu’il capte, sans devoir faire appel à une liaison vers un segment sol.

Une caméra d’ailleurs facilement embarquée par un drone : la caméra BOSON est miniaturisée (21x21x11mm sans l’objectif), ne pèse que 7.5g pour l’unité de traitement, est possède une vision dans le spectre 7.5 µm – 13.5 µm. En revanche, elle est classée ITAR et nécessite donc à ce titre une autorisation d’export par les autorités américaines.

mov3

Il s’agit là d’une véritable révolution amenée, je le pense, à se généraliser : l’intégration de capacités de haut niveau (ici la vision artificielle) dans le senseur lui-même, permettant ainsi de conserver localement des capacités de traitement élaborées sans devoir transmettre l’information à un serveur distant.

Les applications vont de l’analyse d’images de surveillance, à la navigation, ou  la vision artificielle pour drones et robots,… Les grands du domaines ne s’y trompent pas : la société MOVIDIUS a été récemment sélectionnée par …Google, afin d’intégrer des capacités d’apprentissage dans les objets connectés. L’avènement des capteurs intelligents…

 

ai2

L’idée n’est pas nouvelle. Dans une ancienne vie, j’avais moi-même travaillé sur l’utilisation de réseaux de neurones et de techniques d’intelligence artificielle pour la modélisation du comportement normal d’un réseau de télécommunications, afin de détecter les écarts à la normale, pouvant signifier l’occurrence d’une intrusion. Le projet s’appelait M>Detect et avait été réalisé avec Matranet (pour les nostalgiques). Et cela fonctionnait… jusqu’au rachat de Matranet, mais ceci est une autre histoire.

Aujourd’hui, le monde entier s’enthousiasme pour l’intelligence artificielle (IA) – au passage, cet enthousiasme galopant est consécutif à la définition d’un concept marketing alliant réseaux de neurones et puissance de calcul, sous la dénomination de « deep learning ». Bref. En l’occurrence, il s’agit d’un projet du célèbre laboratoire CSAIL (Computer Science and Artificial Intelligence Laboratory) du MIT (Massachussetts Institute of Technology), qui a développé un système baptisé AI2 afin d’examiner les enregistrements (logs) d’un réseau afin d’y détecter toute anomalie pouvant être caractéristique d’une cyberattaque.

L’idée est toujours la même : permettre aux experts de réaliser un tri dans le volume gigantesque de données transitant par le réseau, sans avoir de silence (i.e. manquer une attaque).

Finalement, la technique est relativement classique : enseigner à un système la signature caractéristique de prémices d’une attaque comme par exemple une augmentation subite de connexions sur un compte utilisateurs, pouvant indiquer une attaque visant, par la force brute, à « cracker » un mot de passe.

ai3

AI2 fonctionne par apprentissage. Le premier jour, le système utilise des règles et heuristiques déterminées à l’avance, et réagit en identifiant des anomalies (les 200 anomalies les plus caractéristiques par phase d’apprentissage). Ces anomalies sont présentées à un expert ou à un groupe d’expert qui n’indique que les signatures correspondant véritablement à des attaques. Puis le système apprend, et continue à présenter les signaux aux experts, et ainsi de suite. La vidéo ci-dessous présente le concept.

Rien de nouveau sinon que AI2 semble fonctionner là où d’autres systèmes plafonnent péniblement. Sans doute de par l’impressionnante puissance de calcul disponible aujourd’hui, après 3 mois d’analyse (soit 3.6 milliards de logs réseaux analysés), AI2 identifiait 85% des signes caractéristiques d’attaques (alors qu’un simple apprentissage non supervisé n’atteint qu’un taux de succès de 8%). AI2 est le premier système à atteindre un tel niveau de performances, sans doute par l’apprentissage non supervisé de signaux caractéristiques dans les logs réseaux, et un apprentissage supervisé utilisant les retours des experts.  Au lieu d’examiner plusieurs milliers de logs par jour, une fois le système « éduqué », chaque expert ne doit plus examiner qu’entre 30 et 40 événements par jour : une tâche réalisable sans problème par un opérateur humain.

Le laboratoire a présenté un article lors du  IEEE International Conference on Big Data Security à New York. Un travail à suivre, notamment afin de déterminer si, en miroir à cette technique, il serait possible de dériver un système capable d’imaginer des stratégies de réponse, voire d’attaque.

v2

L’idée est amusante et peut paraître bizarre, mais elle est loin d’être stupide. L’équipe de recherche de Ahmad Hassanat au sein de l’université de Mu’tah de Jordanie a en effet eu l’idée de déterminer l’appartenance d’un individu à un groupe terroriste et de tenter de l’identifier en utilisant une technologie de reconnaissance automatique des images… de leurs doigts faisant le signe « V » de la victoire.

La constatation – surprenante- de l’équipe de recherche est que la manière dont les doigts forment le signe « V » est aussi caractéristique de l’appartenance d’un individu que sa voix, ou même ses empreintes. Leur étude est baptisée « Victory Sign Biometric for Terrorists Identification » et est disponible en suivant ce lien. Une solution intéressante, dans un contexte où les individus se camouflent le visage pour ne pas risquer d’être identifiés.

v3

L’idée de s’intéresser aux signes provient à la fois de l’abondance de photos où des terroristes font un geste victorieux, et de la relative facilité de l’analyse :

  • La capture de la forme de la main ou de la gestuelle ne nécessite pas de senseurs élaborés, ou d’images de très haute-fidélité
  • Si des images plus détaillées sont disponibles, la méthode permet d’agréger d’autres techniques d’analyse (analyse palmaire, empreinte digitale…)
  • La complexité algorithmique de l’analyse est assez faible et les méthodes sont nombreuses et éprouvées.

L’idée consiste à identifier les points correspondant à l’extrémité des doigts, le point à la jonction des doigts et deux points caractéristiques sur la paume de la main. Dans l’étude, 50 volontaires ont fait le signe « V » et ont été photographiés par un appareil standard (8 mégapixels). Cette base de données a permis d’entraîner le système à identifier des références biométriques caractéristiques.

v1

Au final, l’étude a montré qu’il était possible dans de nombreux cas d’identifier avec une précision de 90% la personne faisant le signe. Quelques erreurs subsistent, par exemple dues à la position des autres doigts qui interfère avec les algorithmes de segmentation de l’image.

La technique est donc intéressante, même si, d’un point de vue purement scientifique, il semble difficile de généraliser de tels résultats avec une base de données aussi restreinte. Mais cela permet d’imaginer exploiter au maximum les sources ouvertes, comme les images présentes sur Internet. Faute d’identifier avec précision un terroriste, il serait possible de le suivre, et de corréler cette information avec toutes les autres disponibles en source ouverte. Et si les terroristes arrêtent de faire le signe « V », alors soit cela signifient soit qu’ils arrêtent d’être victorieux ( !) soit qu’il est nécessaire de passer à d’autres modes de reconnaissance (gestuelle, attitude, etc…). Une course aux armes biométriques, en somme…

Hyper0

Bon, un article un chouïa plus technique pour changer, cela fait beaucoup de jargon en une phrase, mais le concept est simple : amener de la bande passante et de la capacité de traitement de données au sein de « data centers » mobiles, au plus près du théâtre d’opérations. Pour faire simple, l’hyperconvergence, c’est une approche d’architecture matérielle/logicielle qui consiste à intégrer des capacités de calcul durcies (processeurs), du stockage de données robuste, un réseau militarisé, des machines virtuelles, encapsulées dans un module hardware unique embarqué au cœur des opérations.

hyper5

Lors du dernier salon AFCEA West conference and trade show à San Diego, plusieurs sociétés ont présenté un tel concept. Parmi elles, on peut citer la société californienne Themis Computer, qui a développé un concept baptisé Themis Hyper-Unity. Il s’agit d’une unité de calcul durcie, fondée sur un concept de stockage en mémoire Flash, et intégrant 4 nœuds serveurs RES-XR5-1U de 8 disques chacun, à base de processeurs Xeon de 14 cœurs. Faisons simple : une capacité de stockage jusqu »à 30 TB, un réseau Mellanox Infiniband de 56Gb, et tout ceci compatible avec les normes militaires MIL-STD-810G, MIL-S-901D et MIL-STD-167-1*. Bref, une bête absolue, durcie aux standards opérationnels, et gérable par un seul administrateur comme un système unique placé à l’intérieur d’un véhicule léger de type Humvee.

Fiber-optic equipment in a data center

Jusqu’à maintenant, l’obstacle principal au développement de capacités de calcul sur le champ de bataille était le poids et la taille des équipements nécessaires. Entre la puissance de calcul souhaitée, la capacité de stockage, les équipements réseaux et le nécessaire passage à des standards de durcissement compatibles avec l’utilisation militaire, le problème était véritablement complexe. Ou alors il fallait une très, très grande rallonge (sic).

Et pourtant, le besoin est prégnant : il s’agit de pouvoir recevoir, traiter et distribuer des quantités astronomiques de données, de réaliser du « blue force tracking » et du suivi des pistes hostiles, de gérer les missions des unités, de réaliser de l’analyse du signal (SIGINT), etc, etc.

hyper7

Le recours à la virtualisation permet de disposer de ressources de calcul et de stockage durcies, gérables comme un seul système. C’est l’hyperconvergence. Si la convergence (en informatique) peut être définie comme « des systèmes séparés conçus pour fonctionner ensemble », donc une approche dite « scale up » (on utilise plusieurs cœurs de calcul pour une même tâche) l’hyperconvergence peut être définie comme une approche « scale out » (on distribue des tâches sur plusieurs machines au sein d’un même réseau lui-même confiné à une même infrastructure). Cette approche permet de démarrer petit, et d’évoluer facilement vers de plus grandes capacités au fur et à mesure, sans aucune perte de performances et de manière linéaire. Bien connue dans le monde civil, cette approche n’était pas encore répandue dans le monde militaire. C’est maintenant chose faite.

hyper2

Outre Themis, d’autres sociétés comme Crystal Group ou encore Core Systems ou Systel Inc. développent aujourd’hui de tels concepts pour la défense. Ce n’est bien évidemment pas une approche parfaite, et des défis techniques persistent comme l’équilibrage (« load balancing ») entre les ressources réelles et virtuelles, ou la gestion des entrées/sorties dans une architecture hyperconvergée. Toutefois, le monde civil progresse à pas de géant ; nul doute que les nœuds de calcul hyperconvergés seront bientôt dans la nuque de toutes les tourelles, comme dans le coffre des nouvelles générations de véhicules militaires.

PS. Désolé pour le retard entre deux articles, la plateforme de blog a visiblement connu quelques difficultés techniques il y a quelques jours… Un manque d’hyperconvergence peut-être…

 

fla2

Je sais bien, cela fait beaucoup d’articles où l’on parle de DARPA et de drones. Mais cela reflète également les tendances actuelles du marché, et les recherches entreprises en innovation technologique de défense.

En l’occurrence, je souhaitais donner un éclairage rapide sur le programme FLA de la DARPA. FLA signifie Fast Lightweight Autonomy (autonomie, vitesse et légèreté). Il s’agit en l’occurrence d’un programme…logiciel, dont l’objectif est d’exploiter pleinement la puissance des plateformes de drones grand public pour les amener à réduire leur consommation en énergie, et à optimiser leur contrôle en diminuant le besoin en télécommunications et en intervention humaine.

fla3

L’idée est ainsi de développer des algorithmes permettant de réaliser une perception automatique rapide de l’environnement, et d’adapter des méthodes de contrôle/commande pour, in fine, permettre à ces drones de se déplacer à leur vitesse maximale théorique dans des environnement complexes, changeants et encombrés.

Les drones ainsi modifiés doivent pouvoir effectuer des missions à haute vitesse, avec une charge utile (senseurs, caméras), sans communiquer avec leur opérateur, et sans utiliser de GPS. Une véritable autonomie en temps réel, donc.

La plate-forme utilisée pour les tests est le célèbre drone de loisir DJI Flamewheel avec le chassis 450 ARF, un kit de propulsion E600 (4 moteurs/ESC, 4 paires d’hélices), et un contrôleur de vol 3DR Pixhawk. Soit un système que l’on peut se procurer dans le commerce pour un prix global d’environ 500 EUR (sans le montage).

fla1

Les chercheurs de la DARPA ont ainsi réalisé une première démonstration dans un hangar de l Otis Air National Guard Base, à Cape Cod dans le Massachusetts. Le drone emportait une charge utile complète et autonome, comprenant des senseurs comme des caméras haute définition et un LIDAR, et a réussi à voler à 20m/s (soit 72km/h). La difficulté est de développer des algorithmes efficaces avec une puissance de calcul embarquée autonome très limitée.

Vous pouvez voir ce très impressionnant test dans la video ci-dessous (y compris les nombreux accidents qui ont émaillé ce test).

Soyons clairs : le drone n’arrive pas encore à voler à 20m/s en évitant tous les obstacles dans son environnement. Toutefois, il n’y a aucune raison que cet objectif ne puisse pas être atteint dans les futures phases du programme. L’objectif est de pouvoir réaliser des missions de surveillance rapide dans des environnements complexes (théâtre d’opération, catastrophe naturelle) là où aucune téléopération n’est possible car trop dangereuses pour les opérateurs (dans une ville rendue instable par un tremblement de terre par exemple).

Une dernière question : les drones ainsi « boostés » arriveront-ils à éviter leur capture par les aigles ? (si, si, il y a bien un programme de la police néerlandaise qui vise à entraîner des rapaces afin qu’ils puissent capturer des drones en plein vol. La preuve en image ci-dessous…) On n’arrête pas le progrès.