Articles Tagués ‘DARPA’

 

molec2

Note préliminaire : étant directement impliqué dans le Hackaton Marine Nationale qui vient de s’achever, je prie mes lecteurs de m’excuser pour le rythme ralenti de publication de ces derniers jours : mon travail m’occupant la journée, et le Hackaton mes nuits (en tant qu’officier de réserve), il m’était difficile de poursuivre intensément toutes mes autres activités.  

Nous avions déjà parlé de l’ordinateur quantique et de ses implications pour le monde de la défense (voir par exemple cet article). La société IBM annonce d’ailleurs avoir développé et déployé deux nouveaux ordinateurs quantiques à 16 et 17 qbits, au sein de son centre de recherche Q Lab (ci-dessous), un progrès significatif dans la mesure où leur prédécesseur ne comportait que 5 qbits.

molec1

L’ordinateur quantique est l’une des révolutions portées par un nouveau domaine, l’informatique moléculaire (molecular informatics en anglais). Comme son nom l’indique, il s’agit de stocker et de traiter l’information en se fondant sur les propriétés des molécules, au lieu d’utiliser le silicium. Il s’agit d’un nouveau champ de recherche, mêlant informatique, chimie, mathématiques et ingénierie.

L’idée en soi n’est pas nouvelle ; elle consiste à utiliser les propriétés des molécules : charge, structure, volume, polarité… pour concevoir de nouveaux modèles de calcul et de stockage, allant bien au-delà des capacités des machines traditionnelles. Plusieurs expérimentations sont en cours depuis longtemps. Ainsi, on connaît les puces « à ADN » (à ne pas confondre avec les DNA Chips, des dispositifs de biologie moléculaire), qui ont vu le jour en 1994. Inventé par un chercheur, Leonard Adleman, le principe repose sur les propriétés de la molécule d’ADN. Il s’agit de coder un problème non avec des 0 et des 1 mais en utilisant les quatre constituant fondamentaux (bases) de l’ADN : la Cytosine, la Guanine, la Thymine et l’Adénine (oui, je suis biologiste au départ). En gros, on code un problème en utilisant des séquences A,T,G,C dans une molécule d’ADN. Juste pour rappeler :  les bases A se lient aux T, les G se lient aux C ; cette propriété permet d’hybrider deux molécules d’ADN, ou d’en lier certaines séquences.

molec3

En utilisant ce principe, on peut trouver une solution à un problème de recherche combinatoire (en utilisant toutes les combinaisons de molécules, et leur hybridation, ce qui réalise, en quelque sorte, un ordinateur parallèle), mais on peut également créer des « portes logiques » (des « aiguillages logiques », à la base de l’informatique, comme ET, OU, XOR…) en se reposant sur les liaisons entre molécules d’ADN. Je ne rentre pas dans les détails, voici par exemple un article expliquant le principe, dans des termes assez simples.

L’intérêt, c’est de pouvoir, dans un volume très réduit, disposer de millions de milliards de molécules, constituant ainsi un ordinateur parallèle extrêmement compact. Cela permet donc de pouvoir, en théorie, traiter des problèmes complexes : optimisation combinatoire, apprentissage, analyse de signal ou d’image, etc… Bien évidemment, si cela fonctionnait aujourd’hui, cela se saurait. Les limitations sont dues à la complexité – et à la lenteur – de cette technologie. C’est pourquoi ce champ de recherche est resté « en friche » depuis deux décennies.

molec4

Ce qui explique l’explosion du domaine aujourd’hui, c’est que le volume et la complexité des données devant être traitées et stockées (« Big Data ») mène les architectures informatiques classiques à leurs limites. Il devient donc urgent de trouver des moyens efficaces de traiter l’information, mais aussi de la stocker. L’informatique moléculaire répond à ces deux impératifs.

Reprenons notre exemple de l’ordinateur à ADN. Des chercheurs de l’université de Manchester ont montré qu’il était extrêmement intéressant dans le domaine du stockage de l’information, grâce à sa propriété d’auto-réplication. Là aussi, simplifions : un gramme d’ADN peut stocker l’équivalent d’un Téraoctet d’informations. Mais surtout, l’ADN peut s’auto-répliquer. On a donc l’équivalent d’un disque dur capable d’augmenter sa capacité en cas de besoin. Cette propriété d’auto-réplication peut d’ailleurs être également utilisée en termes de calcul, pour explorer deux voies de recherche à la fois.

Imaginez donc les implications : des ordinateurs parallèles et des bases de données gigantesques tenant dans un volume extraordinairement compact. Bon, le souci c’est notamment le prix : l’ADN doit être synthétisé et cela coûte cher. On estime que le stockage d’1 MB en utilisant l’ADN coûterait aujourd’hui entre 10000 et 15000 EUR.

molec5

Il y a donc de nombreux défis inhérents à la technique de l’informatique moléculaire. Mais le domaine est en plein développement, qu’il s’agisse d’élaborer des mélanges moléculaires complexes pour le calcul, de développer des portes logiques biomoléculaires, ou de synthétiser de nouveaux polymères (la liste n’est pas exhaustive). Par exemple, les molécules polyoxométalates (POM) – ci-dessus- peuvent agir comme des nœuds de stockage permettant de créer des mémoires Flash à l’échelle nanométrique.

Pour développer le domaine, il faut, en particulier, dépasser les limitations de l’ordinateur à ADN, qui nécessite d’utiliser un ordinateur traditionnel pour récupérer et traiter l’information, ralentissant donc singulièrement le processus, et diminuant l’intérêt du système.

DARPA Vector Logo.eps

C’est pourquoi la DARPA vient de lancer un appel à propositions, afin d’identifier des programmes et pistes de recherche permettant de lever ces limitations. Car l’implication pour le monde de la défense est considérable, dans des domaines comme le traitement d’images pour la reconnaissance, la guerre électronique, le renseignement SIGINT, le traitement des données sur le théâtre d’opérations, etc.

La première phase (18 mois) du programme de la DARPA consistera à élaborer des stratégies de codage de l’information et de calcul en informatique moléculaire. La seconde phase (de 18 mois également) consistera à intégrer et démontrer la pertinence de ces stratégies en codant et en traitant de gros volumes de données. Le défi ? Démontrer la capacité de traiter et stocker 1 GB de données en utilisant un système biomoléculaire d’une densité de 1018 octets par mm3 !

Pour les lecteurs intéressés, l’appel à propositions de la DARPA peut être trouvé ici. Vous avez jusqu’au 12 juin, donc bon courage 🙂

 

sc26

Encore un projet (de plus) porté par la (désormais trop) récurrente DARPA. Le Colosseum (Colisée en anglais) porte bien son nom : implanté dans le Maryland au sein du Johns Hopkins University Applied Physics Laboratory (APL), il s’agit d’un nouvel équipement qui vient d’être mis en service. Et effectivement, il est impressionnant.

Son objectif : constituer un environnement expérimental permettant de créer et d’étudier de nouveaux concepts pour la gestion de l’accès au spectre électromagnétique civil et militaire. Très concrètement, il s’agit d’une pièce de 6mx10m, remplie de racks de serveurs. Pas vraiment impressionnant, du moins sur le plan physique. Dans le monde virtuel, c’est autre chose.

sc23

Car le Colosseum est capable d’émuler plusieurs dizaines de milliers d’interactions possibles entre des centaines de terminaux sans fils : radios civiles et militaires, objets communicants, téléphones portables… C’est comme si l’on se trouvait dans un environnement d’un km2, empli d’objets communiquant simultanément et interagissant. Pour être encore plus clair, le Colosseum fait « croire » à ces radios qu’elles sont immergées dans un environnement donné, fixé par l’utilisateur : centre urbain, théâtre d’opérations, centre commercial, forêt vierge ou désert… Et il peut simuler plus de 65000 interactions entre 256 terminaux connectés, chaque terminal opérant comme s’il disposait de 100MHz de bande passante. En tout, le Colosseum manipule donc 25GHz de bande passante. Chaque seconde (oui, seconde), le Colosseum gère 52 Teraoctets de données. Pas mal…

Le Colosseum est une pièce centrale d’un projet baptisé SC2 pour Spectrum Collaboration Challenge, une compétition visant à changer radicalement la manière dont les futurs systèmes de communication sont conçus.

sc21

En l’occurrence, au lieu de pré-programmer ces futurs systèmes (comme cela est réalisé aujourd’hui dans la totalité des cas), le projet SC2 vise à développer des nouveaux systèmes de communication adaptatifs, capables d’apprendre en temps réel en fonction de l’environnement, de leur historique d’emploi, et des interactions avec les autres systèmes de communication.

sc27

L’idée est d’utiliser des technologies d’intelligence artificielle pour optimiser la stratégie de communication en temps réel : exploiter les failles dans le spectre électromagnétique, établir des partages de spectre, mettre en place des stratégies collaboratives permettant d’assurer la continuité et l’efficacité des communications entre plusieurs radios ou objets connectés. Les critères pour ce réseau radio « intelligent » de nouvelle génération (donc les règles du challenge SC2) sont de développer :

  • Un réseau radio reconfigurable
  • Un réseau capable d’observer, d’analyser et de « comprendre » son environnement (en termes de spectre électromagnétique)
  • Un réseau capable de raisonnement : quelle action entreprendre pour garantir une bonne communication dans un environnement donné
  • Un réseau capable de contextualiser : utiliser de l’apprentissage pour surmonter des aléas et exploiter au mieux le spectre électromagnétique
  • Un réseau capable de collaborer en travaillant avec d’autres systèmes, même nouveaux.

sc22

Pour émuler un environnement permettant de tester et d’entraîner cette intelligence artificielle, le Colosseum utilise 128 SDR (software defined radios ou radios logicielles). Ces radios sont couplées à 64 FPGAs (on va simplifier : des processeurs reconfigurables – image ci-dessous) permettant de moduler le comportement des radios logicielles pour reproduire les environnements électromagnétiques ciblés. Et tout cela dans un environnement de type cloud, permettant à plus de 30 équipes de recherche d’accéder au Colosseum (5 équipes en simultané), pour la compétition SC2.

sc24

Dotée d’un prix de 2 millions de dollars pour l’équipe gagnante, la compétition durera 3 ans, et s’achèvera donc début 2020 après trois phases, la dernière devant départager les deux meilleures équipes. Il s’agit une fois de plus de l’illustration de la créativité de l’agence, qui a souvent recours à ce type de « grand challenge » pour trouver des solutions originales et efficaces à des défis capacitaires. Pour plus d’informations, le site SC2 est ouvert et accessible en ligne: http://spectrumcollaborationchallenge.com/

tern0

Même si le nom ne fait pas forcément vendeur en français, le nouveau drone de Northrop Grumman est loin d’être fade. Il s’appelle TERN, pour Tactically Exploited Reconnaissance Node (oui, il n’y a pas que la DGA qui peut trouver des acronymes) et a été développé pour le compte de la DARPA et de l’ONR (Office of Naval Research). Ce nouvel appareil – drone MALE pour Medium Altitude, Long Endurance – est destiné à être transporté sur des navires militaires, pour conduire des missions de reconnaissance et de soutien.4

tern1

Première particularité, il peut décoller verticalement comme un hélicoptère, avant de basculer comme un « tilt rotor » et de passer en propulsion horizontale – l’atterrissage se fait également en mode vertical. Il possède un rayon d’action d’environ 1110 km – bon, c’est ce qui est prévu car l’oiseau est encore en phase de développement. Le drone possède une capacité de transmission de données par liaison satellitaire, et embarque une charge utile pouvant peser jusqu’à 450kg – les concepteurs imaginent bien entendu des capteurs variés, des systèmes de guerre électronique, mais aussi des charges militaires comme l’emport de missile pouvant procurer à l’engin des capacités d’appui de troupes au sol, ou à la mer.

L’idée d’un décollage vertical puis d’une transition en propulsion classique et d’un atterrissage vertical (VTOL pour vertical take-off and landing) à partir d’un navire n’est pas nouvelle – voir par exemple ci-dessous le célèbre Convair XFY-1, surnommé « pogo » qui s’est révélé trop complexe à piloter, mais qui jetait déjà les bases d’un concept tilt-rotor/VTOL. Mais le TERN présente aujourd’hui nombre de caractéristiques similaires au XFY-1, comme son aile delta et ses hélices contrarotatives. Néanmoins, à la différence d’un « tilt rotor » classique, c’est le mouvement de l’avion qui lui permet de passer à l’horizontale, et non l’inclinaison des propulseurs.

tern2

Le programme est aujourd’hui dans sa troisième phase (voir la video ci-dessous) mais les concepteurs ne souhaitent pas révéler ses caractéristiques finales (envergure, vitesse, …). La Marine américaine le décrit simplement comme le « plus gros appareil capable de rentrer dans le hangar d’un destroyer ».

Même si les dimensions finales ne sont pas connues, j’ai trouvé cette photo qui représente le hangar de Scaled Composites (une filiale de Northrop Grumman) avec un prototype de TERN en cours d’assemblage qui donne une idée de taille – et au passage indique que le véhicule est construit en matériaux composites.

tern5

Le TERN est capable de décoller de n’importe quel vaisseau muni d’une plate-forme de type Helipad, mais la DARPA a souhaité également pouvoir le faire embarquer sur d’autres navires, et pour cela a développé un concept original de bras opérateur robotisé, une innovation en soi. Le système s’appelle SideArm (ci-dessous), et est destiné à équiper des navires non munis de plates-formes hélicoptères.

tern4

Le principe est simple : le bras robotisé est muni d’un rail pour déployer et propulser le drone. Il est également muni d’un filet pouvant récupérer un engin pesant jusqu’à 500 kg (le rail jouant en ce cas le rôle d’amortisseur)– ce qui nécessitera donc une adaptation pour l’utiliser avec le TERN. La vidéo ci-dessous présente le concept, également en cours de développement.

La robotique est donc bien en passe de révolutionner les opérations, puisque l’on voit apparaître des systèmes de robots, combinant leurs automatismes pour fournir une nouvelle capacité. Il est certain que les prochaines années verront le développement de concepts qui pouvaient autrefois paraître surréalistes, mais qui, aujourd’hui, convergent pour accompagner et soutenir les opérations conventionnelles. Une nouvelle ère s’ouvre.

 

 

nvg4

« Regarder au travers de tubes de papier-toilette en carton » : c’est comme cela que certains désignent l’inconfort d’utiliser des lunettes de vision nocturne (dont l’acronyme le plus répandu est NVG pour Night Vision Goggles). Malgré les récents progrès apportés notamment par les lunettes quadri-tubes panoramiques rendues célèbres par le raid contre Ben Laden, les NVG classiques sont souvent trop imposantes, trop lourdes et insuffisamment performantes.

nvg3

Cet encombrement est dû à la technologie elle-même. En effet, pour développer un dispositif de vision nocturne, il est nécessaire d’amplifier le peu de lumière disponible, et de le rendre visible à l’utilisateur. Pour ce faire, une lentille récupère tous les photons disponibles y compris dans le proche infrarouge et les convertit en électrons à l’aide d’une photocathode. Ces électrons sont ensuite envoyés dans un tube sous vide au travers de plaques microperforées et subissent une amplification ; en gros, un électron génère l’émission d’autres électrons par réaction en chaine (cascaded secondary emission, en anglais). On atteint des facteurs d’amplification importants, de l’ordre de 50 000 à 90 000x. A l’extrémité du tube, les vagues d’électrons amplifiés frappent un écran au phosphore qui réagit en émettant la lumière verte caractéristique de la vision nocturne, et permet donc de voir la lumière réfléchie dans l’obscurité.

nvg1

Il s’agit donc d’un dispositif assez complexe et surtout nécessitant un facteur de forme important, en termes de poids et d’encombrement, et ce d’autant plus qu’il nécessite un générateur électrique puissant.

Des chercheurs de l’Université ANU (Australian National University) se sont attaqués à ce problème et viennent de publier des résultats intéressants permettant d’envisager des appareils plus compacts et plus faciles d’emploi, en utilisant les nanotechnologies.

nvg8

L’idée est d’utiliser des nano-antennes, à base d’arséniure d’aluminium et de gallium, 500 fois plus fines qu’un cheveu et capables de réaliser l’amplification des photons sans tube à vide. Le processus repose sur le phénomène dit de génération d’harmoniques de deuxième ordre (SHG pour Second Harmonic Generation). Là encore, je ne fais pas un cours de physique – j’en serais d’ailleurs incapable – mais j’essaie de simplifier au maximum. Ces nanocristaux d’arséniure de gallium ont en effet des propriétés non linéaires : ils doublent la fréquence de la lumière qui les traverse. Pour faire simple, ces cristaux sont capables de convertir la lumière infrarouge en lumière visible. En gros, ils changent la forme, la couleur et la forme de la lumière.

nvg6

L’intérêt est de nécessiter très peu d’énergie, et surtout de n’avoir besoin que d’une couche de nano-cristaux qui aurait ainsi la propriété presque magique de convertir et d’amplifier la lumière. Une telle couche pourrait être apposée sous forme de film, permettant ainsi de concevoir des lunettes à vision nocturne guère plus épaisses qu’une paire de lunettes de soleil. On peut également imaginer un pare-brise de véhicule conférant au pilote la capacité à conduire dans l’obscurité.

Aujourd’hui, les chercheurs de l’ANU ont montré qu’en utilisant ces nanocristaux, ils étaient capables de convertir un laser infrarouge en lumière visible. Pour aller plus loin, il faudra démontrer la capacité à traiter différentes fréquences – ce qui pourra être réalisé en combinant différentes tailles de nanocristaux.

nvg7

Les inventeurs espèrent développer (avec l’aide de la DARPA) un prototype d’ici 3 ans – en parallèle, d’autres voies existent comme le développement de lentilles de contacts à vision thermique, à base de graphène (voir cet article). Il est donc plus que probable que le fantassin de 2025 pourra disposer de systèmes impressionnants, et performants (en termes de puissance mais aussi de légèreté) conçus grâce à la démocratisation des nanotechnologies.

connectome4

Non, ce n’est pas de la science-fiction (encore une fois). On le sait depuis longtemps, la DARPA s’intéresse de près au principe de l’hybridation neuronale, et en particulier de la stimulation du cerveau associée au contrôle de prothèses de membres. Elle a en particulier développé une nouvelle prothèse « neuro-technologique » pouvant être contrôlée par la pensée du patient, dans le cadre du programme « Revolutionizing Prosthetics ».

learn1

L’idée était alors de donner un contrôle presque naturel de ces prothèses (en l’occurrence des bras artificiels) en permettant un contrôle cérébral du mouvement, mais également un traitement des informations des capteurs (comme le sens du toucher via des capteurs placés au bout des doigts artificiels). Pour ce faire, les chercheurs ont créé des micro-implants cérébraux connectés au cortex moteur et au cortex sensoriel des patients. Et cela a marché : ces derniers ont pu contrôler leurs mouvements et ressentir des sensations au bout de leurs « doigts ». La vidéo ci-dessous illustre le concept.

En développant cette technologie (déjà impressionnante), les chercheurs en sont venus à s’intéresser à la plasticité neuronale, c’est-à-dire à la capacité à créer et réarranger des connexions dans le cerveau. Lors d’un nouvel apprentissage ou d’une nouvelle expérience, le cerveau établit une série de connexions neuronales, qui correspondent à des routes pour l’intercommunication des neurones. Après l’acquisition de nouvelles connaissances et la pratique, la communication entre les neurones impliqués est renforcée : la plasticité synaptique (cette capacité à réorganiser les communications entre neurones) comme la neurogenèse jouent donc un rôle clé dans l’apprentissage.

Web

En travaillant sur les implants pour le contrôle de prothèses, les chercheurs de la DARPA en sont venus à s’intéresser à la stimulation du système nerveux périphérique, cette stimulation étant justement créatrice de neuroplasticité. Au 4th Annual Defense One Summit, conférence annuelle ayant lieu à Washington, la directrice de la DARPA, Arati Prabhakar, a annoncé que l’agence s’engageait dans cette voie de recherche : stimuler par des micro-implants le système nerveux pour accélérer les capacités d’apprentissage du cerveau. Il s’agit de réactiver ce que l’on appelle la « période critique » : la période pendant laquelle le cerveau d’un être humain est plus plastique, plus adaptable, et capable d’apprentissage rapide.

Cet « homme augmenté » (au sens générique du terme, bien entendu) pourrait ainsi apprendre une langue étrangère aussi rapidement qu’un jeune enfant, créer des super-cryptographes (l’idée est vraiment de la DARPA) ou récupérer rapidement ses fonctions après une lésion traumatique.

Ce nouveau programme a été baptisé TNT (!) pour Targeted Neuroplasticity Training. Son objectif précis est « d’accélérer le rythme et d’optimiser l’efficacité de l’apprentissage (entraînement des capacités cognitives) par l’activation précise des nerfs périphériques pouvant agir sur le réarrangement et le renforcement des connexions cérébrales » (ouf).

learn2

La DARPA vise à développer une plate-forme technologique autour de ce concept, au travers d’une approche itérative. La première phase vise à mieux comprendre les liens entre stimulation du système nerveux périphérique, accélération de l’apprentissage et fonctions cognitives (en évitant les effets collatéraux). Une phase d’ingénierie visera alors à développer un système (au moins au début) non invasif permettant la stimulation ciblée du système nerveux. Le but est d’accélérer le rythme de l’apprentissage, mais aussi de garantir la consolidation à long terme des informations acquises.

Pour ce faire, la DARPA lance un appel à collaboration (vous le trouverez ici ) en espérant rassembler une équipe pluridisciplinaire d’ingénieurs, de neurobiologistes, d’informaticiens, de spécialistes en sciences cognitives et en ingénierie biomédicale.

learn4

Avec son budget annuel supérieur à 3 milliards d’euros, la DARPA montre encore une fois une capacité à investir dans des voies de recherche multiples et risquées. Comme le disait Oscar Wilde, « Il faut toujours viser la lune, car même en cas d’échec on atterrit dans les étoiles ». Encore faut-il avoir le financement permettant de construire la fusée…

ge2

Nul doute, alors que la bataille de Mossoul débute, que la guerre électronique (GE) prend une grande part dans la préparation et l’implémentation des opérations militaires modernes. Outre la défense de ses propres moyens électromagnétiques, l’écoute et le renseignement, il s’agit d’empêcher l’utilisation du spectre électromagnétique de l’adversaire, par le leurrage, le brouillage, ou l’intrusion dans ses systèmes.

Mais ne croyons pas que cette capacité est l’apanage unique des grandes puissances. Tous les combattants aujourd’hui sur le théâtre s’affrontent sur le terrain des ondes, à l’aide de brouilleurs, intercepteurs, ou en leurrant les réseaux de communication. La compréhension fine des émissions électromagnétiques sur le champ de bataille est donc aujourd’hui incontournable pour conférer un avantage tactique aux combattants impliqués. Cela permet d’interférer avec un guidage de missile adverse, de garantir la fiabilité des données de géolocalisation (qui pourraient être volontaire modifiées par l’adversaire, etc…), et évidemment, d’interférer avec les systèmes ennemis, par exemple en rompant leur chaîne de commandement.

ge4

Dans ce contexte, la société BAE, à la demande de la DARPA américaine, a développé un terminal ultraportable de GE. L’idée est d’avoir un dispositif tactique portable capable de conférer à son porteur la capacité de comprendre les différents signaux de radiofréquences dans lesquels il est immergé.

Il ne s’agit pas uniquement d’électronique (même si la taille et le poids sont en l’occurrence critiques), car pour pouvoir comprendre le « champ de bataille des fréquences », il est nécessaire de disposer d’algorithmes mettant en œuvre des techniques d’analyse du signal et d’Intelligence Artificielle. Cette analyse doit être réalisée au niveau tactique, sur le terrain (au lieu de devoir communiquer les signaux et de procéder à leur analyse au niveau du poste de commandement). Cette analyse, BAE la réalise en utilisant ce que l’on appelle des algorithmes Bayésiens d’apprentissage machine. Vous trouverez sur Internet nombre d’articles expliquant cette technologie, et je me bornerai donc à dire ici qu’un algorithme Bayésien est un graphe orienté probabiliste, capable de tenir compte simultanément de connaissances a priori et de l’information contenue dans les données, et d’améliorer son analyse au fur et à mesure que de nouvelles bases de données lui sont présentées.

ge0

Evidemment, BAE ne fournit pas beaucoup d’information sur la manière dont son algorithme fonctionne (ce qui reviendrait à donner des recettes pour le contrer), mais on peut imaginer qu’il se nourrit des informations capturées lors des missions passées. Cette même approche a d’ailleurs été implémentée par la même société, en ce qui concerne les systèmes de GE de l’avion de chasse F-35.

ge3

Les systèmes portables de BAE seraient ainsi fournis avec une configuration initiale qui exploiterait au maximum les interceptions et formes d’ondes déjà connues, et pourraient évoluer en fonction des situations rencontrées sur chaque théâtre d’opérations (voire partager cette connaissance commune entre deux théâtres). En présence d’un signal analogue à un signal déjà vu, il pourrait adapter sa réponse (par exemple en augmentant la puissance d’émission radio si le signal adverse semble correspondre à une tentative d’affaiblissement du signal, ou en utilisant une autre portion du spectre si l’IA prédit qu’il s’agit d’une tentative de brouillage).

Et cela semble fonctionner puisque BAE annonce, lors des premiers tests, avoir pu identifier plus de 10 signaux différents, sur une grande largeur de spectre, et en présence de dispositifs de brouillage et d’interférence. On peut même imaginer dans un futur proche que cette IA soit considérablement dopée par son embarquabilité sur des processeurs spécialisés (je pense par exemple aux travaux de la jeune société française SCORTEX, aujourd’hui dans le domaine de la vision mais potentiellement dans d’autres domaines demain – si cela peut donner des idées à nos groupes industriels nationaux)

ge6

L’idée est ainsi d’analyser la « soupe » de signaux électromagnétiques, d’en identifier les caractéristiques, d’en cibler les plus pertinents, et d’indiquer au combattant comment utiliser ses propres technologies de GE pour pouvoir les contrer ou échapper aux détections adverses.

Ce projet est intéressant car il montre la réalité de ce que les américains (et en particulier le précédent ministre américain de la Défense, Chuck Hagel et portée par le ministre adjoint de la défense, Bob Works – ci-dessous) appellent la « third offset strategy».

ge1

La première stratégie sous l’administration Eisenhower visait à compenser la supériorité soviétique par la dissuasion nucléaire. La seconde, à la fin des années 1970, visait cette fois, à compenser la supériorité conventionnelle quantitative par l’investissement dans les technologies de l’information et le développement de doctrines et d’un complexe « reconnaissance-frappe » de précision (missiles guidés, etc.). La stratégie de 3e offset vise à assurer leur domination pure tant militaire que stratégique, et l’Intelligence Artificielle en est une composante essentielle. En multipliant le contrôle et le développement de normes sur l’IA, les Etats-Unis imposent leurs outils et leurs technologies permettant à l’IA de contribuer préférentiellement à la souveraineté américaine.

ge5

La multiplication des initiatives mettant l’IA au cœur de systèmes militaire n’est donc pas conjoncturelle mais bien préméditée. En combinaison avec la GE, il s’agit donc bel et bien de démontrer une supériorité qui va bien au-delà de l’échelon tactique. Car comme le disait le Général Siffre dans le livre « Maître des ondes, maître du monde » : « le spectre électromagnétique est le lieu de passage et d’échange des messages chargés de secrets du pouvoir politique, économique, financier, terroriste et mafieux. Qui sera maître de ces secrets cachés sur le spectre électromagnétique sera maître du monde ».

Note: ce blog évolue – vous ne devriez plus y voir de publicités, et vous pouvez aujourd’hui y accéder par un nom de domaine plus simple: VMF214.net

 

planx3

Oui, je sais, je parle beaucoup des projets DARPA. Mais avec plus de 3 milliards de budget, il n’est pas étonnant que des projets ébouriffants voient le jour régulièrement. Celui-ci concerne la cyberdéfense, et s’appelle PLAN-X. Et il est pour l’instant doté de 125M$/an (depuis 2012).

L’idée est de disposer d’un outil permettant, en temps réel, une navigation dans le cyberespace, une visualisation interactive des données, et l’élaboration de plans graphiques d’opérations. Comme dans les meilleurs films de science-fiction, l’opérateur de PLAN-X peut visualiser les réseaux et, le cas échéant, les intrusions en temps réel.

planx1

L’outil est présenté par la DARPA comme un outil d’unification des systèmes de cyberattaque et de cyberdéfense, sous forme d’une interface facile d’utilisation pour les « hackers militaires américains » (je cite) et a vocation à fournir un partage de la situation tactique (situational awareness) du cyberespace d’opérations. Ouf.

planx4

PLAN-X permet d’explorer des réseaux visuellement, et de déclencher des plans d’opération (envoi d’une sonde, scan d’un réseau, recherche de cibles ou de vulnérabilités, etc…). L’utilisateur est littéralement « projeté » dans le cyberespace, par l’utilisation de techniques de visualisation de données immersives. Il s’agit réellement d’une extension des techniques de cartographie militaire au cyberespace : un opérateur peut ainsi donner une mission de défense d’un « périmètre virtuel clé » : serveurs, routeurs, passerelles, ou toute autre zone sensible du cyberespace. Vous trouverez ci-dessous une vidéo de présentation par le chef de projet de la DARPA Frank Pound assez longue (je vous conseille de regarder la partie démo vers 28 minutes).

Pour construire leur modèle de données, les développeurs de PLAN-X  se sont inspirés du modèle CybOX, un acronyme signifiant « Cyber Observable Expressions », disponible en suivant ce lien. Il s’agit d’un langage structuré permettant de représenter des évènements cyber-observables, par exemple la création d’une clé de registre, le trafic réseau parvenant à une adresse IP donnée, etc… Le système a été notamment développé par la société américaine MITRE. PLAN-X agrège nombre de ces techniques : ainsi des standards pour échanger des informations sur les menaces Cyber comme STIX ou TAXII, ou le langage de programmation visuelle SCRATCH permettant de construire graphiquement des plans d’action.

Le développement de PLAN-X a été confié à quelques géants comme Raytheon BBN et Northrop Grumman, mais de plus petites structures ont également été sollicitées. Ainsi, le système a été adapté à des lunettes de réalité virtuelle de type OCULUS RIFT avec l’aide de deux sociétés : Frog Design et Intific.

planx2

La démonstration permet de se projeter dans l’environnement virtuel du cyberespace en 3 dimensions, et de « tourner » autour des données (l’image ci-dessous, assez déformée, montre ce que voit l’opérateur à travers ses lunettes).

planx5

 Après avoir été testé lors des exercices CyberFLAG et CyberGUARD en juin dernier, le système est annoncé pour une mise en service opérationnelle en 2017. Le premier objectif est de permettre à la Cyber Mission Force (CMF) de conduire des opérations coordonnées dans le cyberespace, via cet outil immersif véritablement impressionnant. Un pas de plus vers un futur à la « Minority Report ».