Archives de la catégorie ‘Electronique de défense’

rachine1

Il y a quelques temps j’avais parlé dans ce blog du premier satellite utilisant le principe d’intrication quantique des photons pour réaliser une transmission cryptée (voir cet article). Cette fois-ci, il ne s’agit plus de cryptographie, mais d’une technologie plus directement opérationnelle : un radar tueur de furtivité.

Bon, je préviens tout de suite, nous sommes encore une fois dans le domaine quantique, donc dans un domaine parfaitement contre-intuitif, et mon effort de vulgarisation (surtout si l’on considère que je ne suis pas physicien) risque de m’attirer les foudres des experts. Désolé donc.

Le principe du radar quantique repose lui aussi sur le principe de l’intrication des photons, une propriété surprenante à l’échelle quantique. Pour faire simple, en physique quantique, l’état d’une particule est décrit par une « fonction d’onde ». Celle-ci correspond au spin de la particule (son moment cinétique, classiquement représenté par une flèche vers le haut ou le bas) et qui lui-même correspond à une superposition d’états. A l’échelle quantique, le spin est en effet une somme des états « vers le haut » et « vers le bas ».

Mais lorsqu’on mesure l’orientation du spin, la fonction d’onde est modifiée (« réduite ») de telle sorte que la superposition d’états disparaît et le spin observé prend, de façon aléatoire, la valeur « haut » ou la valeur « bas ». Pour l’instant, c’est encore compréhensible. Ça devient plus complexe lorsque l’on considère qu’en physique quantique, on peut avoir une généralisation de la superposition d’états à plusieurs particules. En l’occurrence, considérons 2 photons dits « intriqués » : ce sont deux particules dont les spins sont opposés. Même si ces particules sont spatialement éloignées, si l’on mesure le spin de la première, la seconde prend instantanément une valeur de spin opposée. Oui je sais, c’est bizarre. Mais c’est comme ça.

rachine3

Le radar chinois repose sur ce principe. L’astuce est d’utiliser la polarisation du signal radar comme une signature quantique. Un photon est séparé, via un dispositif optique, en un couple de photons intriqués. Le radar va ainsi générer un faisceau de photons A, et un faisceau de photons B, intriqués. Les photons B sont surveillés constamment (là encore, vous comprenez que je simplifie), alors que le faisceau A est envoyé en direction de la cible. Si la fonction d’onde du faisceau B se modifie, cela signifie que le faisceau de photons A a atteint une cible, ce qui a provoqué une modification de son spin, et ainsi modifié instantanément celui du faisceau B intriqué.

rachine4

L’intérêt, c’est que cette modification est indépendante de la forme de la surface heurtée. La furtivité classique consiste à minimiser la surface équivalente radar en supprimant autant que possible la réflexion des ondes en direction du radar. Mais dans le cas d’un radar quantique, il ne s’agit pas de détecter une onde réfléchie, mais de détecter une modification de l’état d’un faisceau de photons. Les stratégies classiques de furtivité sont donc inefficaces, comme le sont les contre-mesures de brouillage : le radar quantique n’utilise pas d’ondes ! De plus, l’interaction du faisceau de photons avec la cible est caractéristique de la nature de la cible elle-même : en observant les modifications du faisceau B, on arrive à caractériser la cible, sa position, sa vitesse et ses propriétés physiques.

rachine2

Ce radar a été développé par le Intelligent Perception Technology Laboratory du CETC (China Electronics Technology Corporation). Selon l’agence de presse chinoise, le système aurait réussi à détecter une cible à une distance de 100km. Ce n’est effectivement qu’une preuve de concept, et l’utilisation militaire d’une telle technologie nécessite évidemment des portées bien plus importantes. Il y a d’ailleurs là une difficulté : ce que l’on appelle la décohérence. Car plus les particules intriquées passent de temps dans le monde réel, plus elles ont tendance à perdre leurs propriétés quantiques. Lockheed Martin avait d’ailleurs tenté à plusieurs reprises de réaliser un tel radar, avant de se heurter au principe de décohérence.

Les allégations chinoises sont difficilement vérifiables, mais il est néanmoins vrai que la maîtrise d’une telle technologie constituerait une rupture capacitaire et stratégique. Une véritable réflexion sur l’impact de telles innovations (informatique et technologies quantiques, convergence NBIC, …) et sur leur financement, pour éviter à notre pays et à notre continent toute surprise stratégique majeure me semble aujourd’hui indispensable. Mais ce n’est que mon avis.

ge2

Nul doute, alors que la bataille de Mossoul débute, que la guerre électronique (GE) prend une grande part dans la préparation et l’implémentation des opérations militaires modernes. Outre la défense de ses propres moyens électromagnétiques, l’écoute et le renseignement, il s’agit d’empêcher l’utilisation du spectre électromagnétique de l’adversaire, par le leurrage, le brouillage, ou l’intrusion dans ses systèmes.

Mais ne croyons pas que cette capacité est l’apanage unique des grandes puissances. Tous les combattants aujourd’hui sur le théâtre s’affrontent sur le terrain des ondes, à l’aide de brouilleurs, intercepteurs, ou en leurrant les réseaux de communication. La compréhension fine des émissions électromagnétiques sur le champ de bataille est donc aujourd’hui incontournable pour conférer un avantage tactique aux combattants impliqués. Cela permet d’interférer avec un guidage de missile adverse, de garantir la fiabilité des données de géolocalisation (qui pourraient être volontaire modifiées par l’adversaire, etc…), et évidemment, d’interférer avec les systèmes ennemis, par exemple en rompant leur chaîne de commandement.

ge4

Dans ce contexte, la société BAE, à la demande de la DARPA américaine, a développé un terminal ultraportable de GE. L’idée est d’avoir un dispositif tactique portable capable de conférer à son porteur la capacité de comprendre les différents signaux de radiofréquences dans lesquels il est immergé.

Il ne s’agit pas uniquement d’électronique (même si la taille et le poids sont en l’occurrence critiques), car pour pouvoir comprendre le « champ de bataille des fréquences », il est nécessaire de disposer d’algorithmes mettant en œuvre des techniques d’analyse du signal et d’Intelligence Artificielle. Cette analyse doit être réalisée au niveau tactique, sur le terrain (au lieu de devoir communiquer les signaux et de procéder à leur analyse au niveau du poste de commandement). Cette analyse, BAE la réalise en utilisant ce que l’on appelle des algorithmes Bayésiens d’apprentissage machine. Vous trouverez sur Internet nombre d’articles expliquant cette technologie, et je me bornerai donc à dire ici qu’un algorithme Bayésien est un graphe orienté probabiliste, capable de tenir compte simultanément de connaissances a priori et de l’information contenue dans les données, et d’améliorer son analyse au fur et à mesure que de nouvelles bases de données lui sont présentées.

ge0

Evidemment, BAE ne fournit pas beaucoup d’information sur la manière dont son algorithme fonctionne (ce qui reviendrait à donner des recettes pour le contrer), mais on peut imaginer qu’il se nourrit des informations capturées lors des missions passées. Cette même approche a d’ailleurs été implémentée par la même société, en ce qui concerne les systèmes de GE de l’avion de chasse F-35.

ge3

Les systèmes portables de BAE seraient ainsi fournis avec une configuration initiale qui exploiterait au maximum les interceptions et formes d’ondes déjà connues, et pourraient évoluer en fonction des situations rencontrées sur chaque théâtre d’opérations (voire partager cette connaissance commune entre deux théâtres). En présence d’un signal analogue à un signal déjà vu, il pourrait adapter sa réponse (par exemple en augmentant la puissance d’émission radio si le signal adverse semble correspondre à une tentative d’affaiblissement du signal, ou en utilisant une autre portion du spectre si l’IA prédit qu’il s’agit d’une tentative de brouillage).

Et cela semble fonctionner puisque BAE annonce, lors des premiers tests, avoir pu identifier plus de 10 signaux différents, sur une grande largeur de spectre, et en présence de dispositifs de brouillage et d’interférence. On peut même imaginer dans un futur proche que cette IA soit considérablement dopée par son embarquabilité sur des processeurs spécialisés (je pense par exemple aux travaux de la jeune société française SCORTEX, aujourd’hui dans le domaine de la vision mais potentiellement dans d’autres domaines demain – si cela peut donner des idées à nos groupes industriels nationaux)

ge6

L’idée est ainsi d’analyser la « soupe » de signaux électromagnétiques, d’en identifier les caractéristiques, d’en cibler les plus pertinents, et d’indiquer au combattant comment utiliser ses propres technologies de GE pour pouvoir les contrer ou échapper aux détections adverses.

Ce projet est intéressant car il montre la réalité de ce que les américains (et en particulier le précédent ministre américain de la Défense, Chuck Hagel et portée par le ministre adjoint de la défense, Bob Works – ci-dessous) appellent la « third offset strategy».

ge1

La première stratégie sous l’administration Eisenhower visait à compenser la supériorité soviétique par la dissuasion nucléaire. La seconde, à la fin des années 1970, visait cette fois, à compenser la supériorité conventionnelle quantitative par l’investissement dans les technologies de l’information et le développement de doctrines et d’un complexe « reconnaissance-frappe » de précision (missiles guidés, etc.). La stratégie de 3e offset vise à assurer leur domination pure tant militaire que stratégique, et l’Intelligence Artificielle en est une composante essentielle. En multipliant le contrôle et le développement de normes sur l’IA, les Etats-Unis imposent leurs outils et leurs technologies permettant à l’IA de contribuer préférentiellement à la souveraineté américaine.

ge5

La multiplication des initiatives mettant l’IA au cœur de systèmes militaire n’est donc pas conjoncturelle mais bien préméditée. En combinaison avec la GE, il s’agit donc bel et bien de démontrer une supériorité qui va bien au-delà de l’échelon tactique. Car comme le disait le Général Siffre dans le livre « Maître des ondes, maître du monde » : « le spectre électromagnétique est le lieu de passage et d’échange des messages chargés de secrets du pouvoir politique, économique, financier, terroriste et mafieux. Qui sera maître de ces secrets cachés sur le spectre électromagnétique sera maître du monde ».

Note: ce blog évolue – vous ne devriez plus y voir de publicités, et vous pouvez aujourd’hui y accéder par un nom de domaine plus simple: VMF214.net

cerdec3

Le GPS est aujourd’hui tellement répandu que l’on oublie même son usage, à moins que l’on se trouve dans un tunnel. Mais les combattants sur le terrain doivent, quant à eux, compter sur un système fiable et continu. Or de nombreux facteurs peuvent affecter la réception du signal : le terrain lui-même, notamment en environnement urbain, ou le brouillage volontaire ou non du système.

Afin de maintenir cette capacité critique de géolocalisation, les ingénieurs du CERDEC (Command Communications-Electronics Research, Development and Engineering Center), une unité de l’Armée de Terre américaine, ont imaginé se fonder sur l’utilisation d’une micro-caméra. L’idée est ainsi de faire de la navigation visuelle : la caméra rapide capture les images haute définition (pouvant ainsi capturer les détails les plus fins) de l’ensemble des amers visuels (objets, points caractéristiques) lors du déplacement du combattant. Un système doit ensuite comparer ses images, afin de déterminer la direction et la vitesse de déplacement. Pour davantage de précision, le système est couplé à une mini-centrale inertielle (IMU : inertial measurement unit) comprenant un ensemble de capteurs dont des accéléromètres et des gyroscopes.

cerdec1

En termes de déploiement, une première version sera destinée (sans doute en 2022) à être disposée sur un véhicule, avant d’envisager une application au combattant débarqué. Une telle version embarquée a d’ailleurs été récemment testée sur une autoroute américaine (ce qui peut difficilement être considéré comme un test démonstratif, en particulier compte tenu de l’extrême continuité du terrain).

Cependant, une version « combattant débarqué » a également fait l’objet d’un test et a permis de maintenir la trajectoire initialement prévue, en l’absence de tout signal GPS. On peut d’ailleurs imaginer des retombées immédiates d’une telle technologie dans le domaine civil – qui, à l’inverse, a fourni des technologies de navigation visuelle, accompagnant l’essor des véhicules autonomes.

cerdec2

La limitation, en termes de performances, provient aujourd’hui de l’absence d’estimation de la profondeur. Pour ce faire, il serait nécessaire de déployer des caméras capables de vision stéréo (ce qui risque d’avoir un coût notamment en termes d’encombrement et de puissance électrique embarquée nécessaire).

D’autres alternatives sont en cours d’examen. Les mêmes ingénieurs du CERDEC imaginent ainsi pouvoir déployer des « pseudolites » : des pseudo-satellites, opérant à basse altitude, et permettant de diffuser un signal fort, difficile à brouiller.

cerdec4

Ces pseudolites peuvent opérer sur une plate-forme, une montagne, ou un avion volant à basse altitude. Ils comprennent un système de réception et un système de transmission : la réception est en fait un système de navigation (qui se connecte, lui, à un GPS), et un système de diffusion de sa position. Le schéma ci-dessous illustre le principe.

cerdec5

Indépendamment de ces technologie, on ne peut trop conseiller de maintenir le niveau de formation élémentaire de nos militaires : difficile en effet de brouiller une carte et une boussole!

bacter1

Je l’admets, pour un retour de vacances, le titre est quelque peu sibyllin… Explication : des chercheurs travaillant avec l’Office of Naval Research américain (un tout petit laboratoire puisqu’il a un budget de seulement – ! – 1,7 milliards de dollars) viennent d’annoncer avoir utilisé des bactéries génétiquement modifiées pour créer des filaments plusieurs milliers de fois plus fins d’un cheveu, et capables de conduire de l’électricité.

Ce faisant, il s’agit de trouver une voie alternative à l’utilisation de techniques chimiques de nanoélectronique. En l’occurrence, le chercheur Derek Lovley de l’Université du Massachussets (et détenteur d’un contrat avec l’ONR) a utilisé une protéobactérie appelée Geobacter Sulfurreducens, déjà connue pour pouvoir oxyder des matériaux comme le fer, les composés organiques, ou même certains métaux radioactifs.

bacter4

A l’état naturel, cette bactérie produit des « pili », soit des nanofilaments nanométriques, qui lui permettent de réaliser une connexion électrique entre elle et son substrat (ce sur quoi elle pousse), typiquement des oxydes ferreux. Ces filaments lui permettent de communiquer avec d’autres congénères, et de former un « biofilm » à la surface du substrat. D’où l’idée d’utiliser ces bactéries pour transporter une plus grande quantité d’électricité, à l’échelle nanométrique.

bacter3

Les chercheurs de l’ONR ont donc remplacé deux gènes dans le génome de la bactérie (afin qu’elle utilise un acide aminé appelé tryptophane, ayant des capacités supérieures de transport d’électrons à l’échelle nanométrique) avec un résultat impressionnant. Car le Geobacter ainsi « optimisé » est capable de produire des nanofilaments 2000 fois plus conducteurs que la bactérie originelle, mais également plus fins : 1,5 nm de diamètre (soit 1/60 000 du diamètre d’un cheveu) ! On parle donc de la capacité de générer des milliers de nano-câbles électriques extrêmement conducteurs, sur une surface très réduite.

Maintenant, pourquoi en parler dans ce blog ? Tout simplement parce que les applications sont très nombreuses, dans le civil (en particulier dans le médical, pour développer des nano-capteurs) comme dans le domaine militaire. C’est d’ailleurs la raison pour laquelle l’ONR a financé cette recherche.

bacter2

L’application de ces nanofilaments à l’ingénierie de nano-capteurs ou nano-détecteurs est évidemment l’aspect le plus immédiat. On peut ainsi envisager le développement de nano-détecteurs, utilisant des microbes liés à un substrat de silicium, et alimentés en énergie par les nanofilaments, afin de pouvoir détecter des substances toxiques, chimiques ou explosives. Et la petite taille de ces détecteurs pourrait permettre d’en placer une grande variété sur des micro-drones.

Mais imaginez aussi des nanofilaments bactériens apportant une stimulation électrique à des microbes capables de générer, n’importe où, du carburant (en l’occurrence du butanol)… Ce n’est pas de la science-fiction, certaines bactéries, comme la bactérie Clostridium, E. Coli ou même la levure, ont la capacité de générer du n-butanol. Mais certaines peuvent le faire en utilisant l’électricité afin de convertir le dioxyde de carbone, produisant ainsi des dérivés. On appelle cela l’électrosynthèse microbienne. On peut ainsi imaginer des « batteries de bactéries » génétiquement optimisées, alimentées en électricité par les nanofilaments de Geobacter, et capables de produire du carburant sur le théâtre d’opérations, notamment dans des bases avancées, difficiles d’accès. Si, je vous assure, c’est sérieux.

Pour pouvoir réellement exploiter ces nanofilaments, un peu de recherche reste nécessaire, notamment afin de stabiliser leurs protéines. L’ONR continuera à financer ces travaux, dont les applications ouvrent une nouvelle ère, celle de la bioélectronique, une véritable rupture technologique et capacitaire.

 

vc2

Retour de vacances : ce blog reprend son cours. Avec, pour ce premier article, un sujet d’actualité puisqu’il touche à une approche innovante concernant la sécurité des systèmes informatiques. Celle-ci est souvent abordée sous l’angle logiciel ; ici, c’est l’aspect matériel qui est en cause.

Imaginons un petit scénario : suite à un appel d’offres pour la réalisation d’un système critique (gestion d’une usine, système de contrôle embarqué, système d’armes, lanceur spatial, système médical, machine à voter, bref, quelque chose qui ne DOIT PAS dysfonctionner), un acteur est retenu pour « outsourcer » la fabrication d’un processeur destiné à intégrer ce système. Moins cher, innovant, mais basé dans un pays lointain, il respecte toutes les contraintes du cahier des charges. Mais derrière l’usine de fabrication œuvre un réseau de pirates informatiques contrôlés par un état. Les processeurs livrés seront conformes en tout point aux spécifications, mais avec une petite fonction supplémentaire : un cheval de Troie codé « en dur », permettant ainsi aux pirates de prendre le contrôle du processeur, et de menacer, le moment venu, l’infrastructure critique concernée. Science-fiction ? Non, car de telles technologies existent, et le recours à la sous-traitance dans le domaine est généralement la norme.

vc3

C’est un tel scénario qui a dû inspirer le chercheur Siddharth Garg, de la NYU Tandon School of Engineering. Sa solution : développer un processeur certifié, dont la fonction consiste à vérifier le bon fonctionnement d’un autre processeur. Le système repose en fait sur la collaboration entre le processeur sous-traité (nous l’appellerons ST) et le processeur vérificateur (nous l’appellerons V). Rappelons que l’objectif est d’utiliser V pour déterminer le bon fonctionnement (et l’absence de code malicieux) dans ST.

VC1

Pour ce faire, le cahier des charges de ST inclut un module dont l’objectif est de prouver que les calculs effectués par le processeur sont corrects. Une fois le processeur livré, un second processeur (V) a pour fonction d’évaluer que la preuve livrée par le module embarqué dans ST est réelle. Le processeur ST peut être sous-traité. Le processeur V est quant à lui très simple : il est réalisé sous forme d’une ASIC (application-specific integrated circuit) par un prestataire de confiance. La technologie est accessible partout, et ne nécessite pas l’intervention d’une fonderie évoluée (sans cela, le système se mordrait la queue). Il s’agit d’une implémentation matérielle d’une technique connue sous le nom de « Verifiable Computing ».

L’innovation est donc réelle, même s’il reste quelques problèmes à surmonter ; en particulier, les délais de calcul induits par la vérification, et la bande passante nécessaire entre les processeurs ST et V.  Car le système fonctionne en permanence : chaque fois que ST reçoit une commande, il fournit à la fois le résultat, et la preuve de bon fonctionnement qui sera validée par V.

Le système, ingénieux, est appelé Zebra. Il est encore à l’état de prototype, mais l’approche sera bientôt testée en vraie grandeur. Car les enjeux sont critiques : prévenir tout vol de données (et notamment les clés de cryptage), éviter des attaques ciblées sur des infrastructures critiques et connectées.

Pour les plus courageux (et ce n’est rien de le dire), l’article original est téléchargeable ici.

 

ecu3

Dans un excellent livre que je vous recommande, « Crimes du Futur » par Jérôme Blanchart (ed Premier Parallèle), un chapitre fait froid dans le dos. Bon, en fait tous les chapitres, mais je vous en reparlerai. Celui-ci s’intitule « Google Car : plutôt Choupette ou Christine ? » et décrit les modes opératoires des criminels du futur, et dans une vision hélas prémonitoire, évoque l’utilisation d’un camion ou d’une voiture pour commettre un attentat contre une foule. La seule différence par rapport à la tragique actualité : il n’y a personne dans la voiture : celle-ci est une voiture du futur, donc connectée, qui a été piratée par un terroriste qui l’utilise comme arme roulante téléopérée. Glups.

ecu0

En 2015, les chercheurs Charlie Miller et Chris Valasek ont montré qu’il était possible de prendre le contrôle d’une Jeep Chrysler sur une autoroute californienne, en profitant d’un bug dans le système d’exploitation mal sécurisé du véhicule (la vidéo, spectaculaire, est visible ci-dessous – un journaliste de Wired était à bord):

Malgré le caractère spectaculaire de la chose, le dommage était relatif : le véhicule était connecté, mais pas autonome. Imaginons que demain, on puisse prendre le contrôle complet sur un véhicule, et donc le diriger… On n’arrête pas le progrès.

Mais comme toute attaque, des contre-mesures sont en cours de développement. A la prochaine « Usenix security conference » qui aura lieu le mois prochain (10-12 août à Austin), deux chercheurs de l’université du Michigan, Kyong-Tak Cho et Kang Shin, vont présenter un nouveau système appelé CIDS pour Clock-based Intrusion Detection System, et dont l’objectif est de se prémunir contre une prise de contrôle ou le piratage d’un véhicule connecté.

Le principe est ingénieux : il s’agit de constituer une base d’empreintes numériques propres à chaque composant capable de communiquer dans le véhicule. Car dans un véhicule connecté, tous les organes concernés communiquent à l’aide de ce que l’on appelle un bus CAN : ce sont les composants dits ECU (pour Electronic Control Units), et ils regroupent freins, boite de vitesse, direction, phares, etc…

ecu2

Le problème est donc de les authentifier pour qu’un pirate ne puisse pas prendre leur contrôle à distance en se faisant passer pour le calculateur du véhicule. Pour cela, les chercheurs exploitent…les erreurs de datation, ce que l’on appelle des distorsions d’horloge : dans chaque véhicule, le temps (donc la datation des événements) repose sur des processeurs qui se fondent sur des cristaux oscillants (comme dans une montre à quartz). Or en fonction des petits défauts de fabrication de chaque cristal, et de la température, de minuscules distorsions apparaissent. Ceci engendre un très léger décalage temporel propre à chaque processeur, donc à chaque véhicule.

ecu1

Les chercheurs ont donc développé un nouveau dispositif capable d’identifier et d’analyser ces défauts, et la variance de cette dérive avec le temps. Baptisé CIDS (ci-dessus), il se connecte sur le port OBD-2 du véhicule (celui en-dessous du tableau de bord sur lequel le garagiste se branche pour vous dire que ça va coûter cher). Après plusieurs tentatives d’attaques sur divers véhicules, ils ont pu identifier si les messages reçus par chaque ECU étaient authentiques ou résultaient d’une intrusion.

Une preuve de concept convaincante, même si la faille de cette mesure consisterait à « véroler » un ECU du véhicule pour en capturer les caractéristiques pour pouvoir les imiter. Une approche évoquée par le hacker Craig Smith lors de la dernière conférence DerbyHack 2015 de Louisville, lorsqu’il a montré un appareil de 20$ capable d’infecter un véhicule en se branchant…sur l’outil de diagnostic du garagiste. Dans le domaine, la course aux armements est donc loin d’être achevée.

PS. Le rythme estival m’autorise à ralentir un peu mes publications, avant interruption des programmes à compter du 28 juillet. Vous ne m’en voudrez pas, j’espère…

fan3

Tout le monde le sait : le meilleur moyen de protéger un ordinateur hébergeant des données sensibles, est de le déconnecter physiquement de tout réseau. C’est ce que l’on appelle « l’air-gap » : l’ordinateur ne possède aucune connexion d’aucune sorte, et est ainsi protégé de toute intrusion… en théorie. C’est évidemment indispensable dès lors que des réseaux d’ordinateurs spécifiques protégés doivent être mis en place : communications militaires, monde bancaire, mais aussi (et cela fera l’objet un article prochain) les réseaux de contrôle ou d’automates industriels critiques (SCADA), qui sont aujourd’hui une vulnérabilité majeure de nos infrastructures (ce sera pour une autre fois).

Car évidemment, dès lors que l’on développe un système de protection, les adversaires cherchent à le contourner. Pour pirater un ordinateur « air-gapped », plusieurs techniques ont déjà été examinées. La plus connue et la plus immédiate est l’interception des ondes électromagnétiques (nous parlerons un jour du système Cottonmouth-I de la NSA), mais il existe d’autres techniques plus exotiques comme l’utilisation et le détournement des patterns dans la chaleur émise par le PC.

fan5

On peut ainsi mentionner un système appelé BitWhisper et développé par des chercheurs de l’université Ben Gurion de Jérusalem, qui utilise l’émission de chaleur de l’ordinateur ciblé ainsi que les senseurs thermiques internes pour intercepter (et communiquer) des informations critiques comme des mots de passe ou clés de sécurité. Les chercheurs ont ainsi montré qu’ils pouvaient intercepter des commandes d’une machine air-gapped – voir la vidéo ci-dessous. En l’occurrence, ils arrivent à faire passer une information entre deux machines non physiquement connectées par le détournement des informations thermiques, arrivant ainsi à contrôler un jouet lance-missile.

Cette technique utilise les fluctuations de température de la carte-mère, et détourne le déclenchement par senseurs internes des ventilateurs permettant le refroidissement. Il s’agit d’un malware (qu’il faut donc implanter sur la cible, ce qui constitue une limite de l’exercice, je le concède), qui utilise, un peu comme un code morse, le déclenchement des senseurs de température interne pour transmettre de l’information à l’ordinateur espion. En pilotant le senseur pour permettre une augmentation de 1°C sur une certaine période, l’ordinateur receveur comprend « 1 ». En permettant la restauration de la température à son niveau initial sur la même période, le receveur comprend « 0 ». C’est long, c’est fastidieux mais c’est suffisant pour récupérer ou transmettre de l’information.

fan4

Ce logiciel va même jusqu’à prendre en compte les fluctuations normales de température afin de s’y « fondre » pour qu’un observateur externe ne puisse pas comprendre qu’une attaque a lieu. Un ordinateur infecté par bitWhisper envoie également un « ping » thermique par ses senseurs, de manière à écouter ses voisins et engager une communication avec un autre ordinateur infecté, et ce dans les deux sens (écoute des données, envoi de commandes). L’article est disponible ici.

Ce sont ces mêmes chercheurs de Ben Gurion qui viennent de mettre au point une nouvelle technique fondée sur l’écoute des ventilateurs de refroidissement du PC. Elle repose sur l’analyse des émissions sonores et de leurs variations ; car si un PC protégé ne possède généralement pas d’enceintes (et que son haut-parleur interne doit être désactivé), il comprend plusieurs ventilateurs : sur la carte mère, le châssis, l’alimentation, … Tous ces ventilateurs génèrent une fréquence sonore (liée à la fréquence de passage des pales), qui augmente avec la vitesse de rotation du ventilateur.

L’idée a alors consisté à développer un nouveau malware, qui va générer du code binaire à partir de la fréquence du ventilateur : 0 pour 1000 rpm, 1 pour 1600 rpm. Un receveur placé à proximité, comme un smartphone, en l’occurrence un Samsung Galaxy S4  avec une fréquence d’échantillonnage de 44.1Hz (voir le dispositif expérimental ci-dessous) va écouter ce code pour transmettre les données piratées. Le malware s’appelle Fansmitter ; il permet de transmettre jusqu’à une distance de 8m l’information à un système de réception à un taux de 900bits/h.

fan1

Il permet même d’utiliser des différences de fréquences sonores de 100Hz pour générer la différence entre le 0 et le 1, afin d’éviter qu’un observateur dans la pièce puisse se rendre compte de l’attaque (alors que le receveur est capable de le faire, même si la pièce est bruitée – en l’occurrence, dans le test effectué par l’équipe de recherche menée par Mordechai Guri, la pièce comportait plusieurs serveurs, un niveau de bruit ambiant habituel et un système de climatisation actif). L’article original peut être téléchargé ici.

Tout ceci permet de montrer qu’un ordinateur air-gapped n’est intrinsèquement pas à l’abri. En tout cas, tout malware pourra exploiter les failles qui sont de toute façon inhérentes au fonctionnement d’un ordinateur. Le seul bémol à ce constat est la nécessité d’introduire un malware dans l’ordinateur ciblé, ce qui est une véritable barrière d’entrée. Une fois celle-ci passée, c’est hélas trop tard.

mov1

Ce n’est pas la première fois que nous parlons ici des caméras thermiques intelligentes. Mais ici, il s’agit d’une réelle convergence entre deux technologies : la vision thermique, et l’interprétation automatique d’images par vision artificielle. Cette convergence est matérialisée par l’alliance entre deux références du domaine : la société FLIR bien connue pour ses technologies de vision thermique par infrarouge, et la société MOVIDIUS, spécialiste de la vision artificielle embarquée.

Movidius est une société californienne qui développe des solutions dites de VPU pour Vision Processor Unit ; son architecture baptisée Myriad 2 est en fait un processeur spécialisé dans la vision artificielle embarquée. Il se compose d’un processeur DSP de traitement du signal permettant d’exécuter 150 milliards d’opérations par seconde, en ne consommant que 1,2 watts.

mov2

Ces deux sociétés viennent d’annoncer le fruit de leur collaboration : la caméra BOSON, une caméra thermique embarquant le Myriad 2 (possédant 12 cœurs de calcul programmables) et permettant d’implémenter in situ des algorithmes de traitement avancé de l’image, filtrage du bruit, et analyse d’objets. La caméra BOSON intègre les algorithmes de base, et l’utilisateur dispose de puissance de calcul et de mémoire disponibles pour implémenter ses propres traitements.

Le résultat ? Une caméra thermique miniaturisée, de faible consommation, et embarquant une intelligence artificielle permettant le traitement automatisé et en temps réel des images. Il devient ainsi possible de réaliser de la détection et du suivi d’images, de la détection de geste ou de mouvement, ou d’extraire des caractéristiques de haut niveau permettant d’implémenter une identification automatique de cible d’intérêt et un traitement de l’image correspondante.

Cela permet de réaliser l’essentiel des opérations au sein du capteur lui-même : toutes les opérations sont effectuées localement, sans devoir surcharger la bande passante du réseau, ni devoir transmettre des informations en vue d’en faire l’analyse sur un serveur distant. Une économie de temps, un gain de sécurité et d’efficacité : on peut ainsi imaginer qu’un drone aérien soit capable de réaliser l’interprétation automatique et immédiate des images qu’il capte, sans devoir faire appel à une liaison vers un segment sol.

Une caméra d’ailleurs facilement embarquée par un drone : la caméra BOSON est miniaturisée (21x21x11mm sans l’objectif), ne pèse que 7.5g pour l’unité de traitement, est possède une vision dans le spectre 7.5 µm – 13.5 µm. En revanche, elle est classée ITAR et nécessite donc à ce titre une autorisation d’export par les autorités américaines.

mov3

Il s’agit là d’une véritable révolution amenée, je le pense, à se généraliser : l’intégration de capacités de haut niveau (ici la vision artificielle) dans le senseur lui-même, permettant ainsi de conserver localement des capacités de traitement élaborées sans devoir transmettre l’information à un serveur distant.

Les applications vont de l’analyse d’images de surveillance, à la navigation, ou  la vision artificielle pour drones et robots,… Les grands du domaines ne s’y trompent pas : la société MOVIDIUS a été récemment sélectionnée par …Google, afin d’intégrer des capacités d’apprentissage dans les objets connectés. L’avènement des capteurs intelligents…

bouchon0

Le théâtre d’opération est un milieu complexe, et parfois traumatisant. Pour protéger leurs oreilles des bruits trop forts (explosions, coups de feu, moteurs…), les fantassins pourraient porter des bouchons d’oreilles, au risque de ne pas bien percevoir leur environnement, et au détriment de la communication avec leurs chefs, camarades ou subordonnés. Le résultat ? La majorité refusent de porter de telles protections, et vivent donc avec l’angoisse d’une perte de l’audition, allant jusqu’à l’accentuation d’un syndrome de stress post-traumatique (PTSD). Un problème de santé dont le coût est chiffré à plus d’un milliard de $ par an aux USA (selon un rapport émanant du Department of Veterans Affairs).

Quelques sociétés ont donc naturellement cherché à doter les combattants de moyens de protection « intelligents ». C’est par exemple le cas de la société américaine INVISIO qui a développé le TCAPS, pour « tactical communications and protective system ».

bouchon3

Il s’agit du résultat d’un projet financé par l’US Army, et qui a permis de développer des écouteurs jouant le rôle de bouchon d’oreille : ils laissent passer les communications, mais stoppent les bruits traumatisants. Le TCAPS est un dispositif qui « écoute l’environnement du fantassin », et écrête le signal sonore si celui-ci dépasse une certaine intensité. La vidéo ci-dessous présente le système:

Le dispositif en lui-même ((baptisé INVISIO X50) est constitué d’écouteurs de 5g, et d’une unité de contrôle capable d’évaluer l’environnement sonore, et qui pèse 250g. Le tout est relié à un smartphone. Le système possède une autonomie de 100h avec une simple pile AA. Il peut subir une immersion sous 2m d’eau sans dommage. Seul petit problème, qui devient un problème de taille si l’on considère le nombre de soldats à équiper : il coûte environ 2 000$/pièce !

bouchon1

Mais les sociétés françaises ne sont pas en reste (comme quoi, je ne parle pas uniquement des américains !). La société française bien connue ELNO, spécialiste en équipements de communication en environnement sévère, a communiqué lors du dernier salon Eurosatory sur un nouveau produit, appelé Hoplite en référence au casque des fantassins de la Grèce antique.

Il s’agit d’une nouvelle génération de casques communicants, permettant au combattant de disposer d’un son ostéophonique (la conduction osseuse est une spécialité d’ELNO), ergonomique, mais permettant une perception spatiale complète de l’environnement sur 360°. Les oreilles du combattant sont protégées par des coquilles, mais comme dans le système TCAPS, la perception du théâtre opérationnel est préservée. En avant-première, voici à quoi ressemblera le casque Hoplite:

bouchon4

Il devrait être prochainement disponible – à ce moment là, je pourrai communiquer sur ses caractéristiques technologiques, pour l’instant encore confidentielles. Pour plus d’information et si vous êtes plus persuasifs que moi, voici le site de la société: http://www.elno.fr/fr/.

Comme le rappelait récemment le directeur de la Section Technique de l’Armée de Terre, il ne faut pas oublier que chaque innovation technologique dans le monde de la défense doit bénéficier en premier lieu aux hommes et aux femmes qui sont au contact, en opérations. C’est bien le cas ici.

davd1

Il s’appelle DAVD mais certains l’appellent déjà DAVID, pour Divers Augmented VIsion Display (système d’affichage en vision augmentée pour plongeurs) et c’est le tout premier dispositif permettant d’afficher des indications en vision augmentée pour des nageurs de combat, pendant leur mission.

On rappelle pour mémoire que la vision augmentée permet de superposer des indications synthétiques dans le champ visuel d’un opérateur ; l’exemple le plus connu est le HUD (affichage tête haute ou head-up display) des pilotes (de chasse comme de transport) permettant de visualiser les informations de pilotage, tactiques ou relatives à l’état de l’avion directement dans leur champ visuel. Avec la miniaturisation des moyens de calcul, et la maturité et la résolution des systèmes de génération d’image, cette technologie tend à se généraliser.

La réalité augmentée, quant à elle, va un cran plus loin, puisqu’il s’agit de superposer ces informations synthétiques en parfaite cohérence avec l’environnement réel de l’opérateur. C’est par exemple le cas dans le domaine en plein essor de la simulation embarquée dynamique, ou des avatars virtuels d’entités sont injectés sur le champ de bataille réel, en cohérence avec les mouvements du terrain. J’avais également mentionné dans cet article les différents projets visant à doter les fantassins de telles capacités (photo ci-dessous).

davd6

Il s’agit donc d’une tendance de fond, comme le montre ce nouveau développement piloté par l’US Navy, en l’occurrence le Naval Surface Warfare Center Panama City Division (NSWC PCD). L’idée ici est de transmettre au plongeur des informations directement dans son champ de vision : informations tactiques, messages, mais également représentation de l’imagerie sonar générée par le bateau situé en surface, au-dessus de lui.

davd4

Pour ce faire, les ingénieurs de l’US Navy ont eu l’idée de construire un casque de plongée intégrant directement un dispositif de réalité augmentée devant les yeux du nageur. Il s’agit de lunettes semi-transparentes capables de restituer à l’utilisateur des informations en haute définition. Le plongeur peut choisir d’activer ou non l’affichage en fonction de la complexité des opérations qu’il doit effectuer. Il peut également choisir de repositionner lui-même les informations dans son champ de vision. Cette fonction a d’ailleurs été mise au point après le retour d’expérience de différents plongeurs ayant testé le système.

davd2

Il s’agit bien de vision augmentée puisque les informations sont « indicatives ». L’étape suivante consistera à munir le plongeur lui-même de microsonars lui permettant de superposer l’imagerie obtenue (de son point de vue) avec le terrain réel – une fonction très utile lorsque l’environnement est obscur et troublé. Il s’agira alors véritablement d’un dispositif de réalité augmentée.

davd3

On pourra également imaginer superposer des informations simulées avec la vision réelle de l’opérateur, pour l’assister par exemple dans des tâches de maintenance sous-marine ou de déminage. Les applications dérivées pour le civil sont évidentes, avec un intérêt marqué pour l’archéologie sous-marine.

Un essai sur le terrain de cette première version est prévu dès le mois d’octobre 2016 avec une vingtaine de plongeurs-testeurs, pour une phase étendue de tests opérationnels en 2017.