fires2

Bien que le projet soit engagé depuis 2012, c’est ce mois-ci, lors de la conférence FIRES de Fort Sill (USA), qui permet chaque année aux industriels de dévoiler leurs dernières innovations en termes de technologie de défense (ci-dessous), que Lockheed Martin a fait le « buzz ». La firme américaine a en effet, et pour la première fois, dévoilé des détails et caractéristiques techniques sur son missile miniature « Hit-To-Kill » (MHTK).

fires0

Il s’agit d’un nouveau type de missile miniature, permettant, sur le même principe que le système « Iron Dome » israélien, de constituer une bulle de protection autour d’installations sensibles, ou de troupes déployées.

fires1

La bestiole est très, très compacte ; en gros, la taille d’un parapluie : 71cm de long dans sa dernière version (contre 68cm initialement), un diamètre de 4cm, et un poids d’environ 2,2 kg. Cela, en soi, c’est une innovation. Car le missile MHTK embarque un radar miniaturisé à antenne active, un système de propulsion et son carburant, le système de contrôle, et bien évidemment une charge utile (en l’espèce, de la même manière qu’un obus flèche, c’est l’énergie cinétique qui provoque l’effet militaire, sans besoin d’une charge explosive). Le système de tracking est une antenne AESA (active electronically-scanned array) qui procure un champ de balayage de 45° en élévation, avec un angle de 90°. Pour mémoire, un radar AESA remplace l’antenne mécanique mobile d’un radar classique par un ensemble fixe composé de plusieurs modules émetteur/récepteur. Chacun de ces modules est commandé individuellement, ce qui permet d’orienter le faisceau dans la direction souhaitée.

fires4

L’emploi privilégié du MHTK est la protection d’installation contre des attaques de type roquettes, missiles ou drones. Différents radars couvrant la zone ont fonction de détecter la menace. Une fois celle-ci identifiée, le MHTK est lancé, et va se diriger vers les coordonnées signalées par le radar, avant d’engager une phase de recherche autonome de sa cible en analysant notamment sa vitesse d’approche. L’interception est directe (« hit to kill ») et permet d’éviter les dégâts collatéraux que l’on peut redouter si l’on emploie une charge explosive au lieu d’une charge cinétique.

firesB

L’objectif est de pouvoir lancer le MHTK à partir de plateformes mobiles (camions lanceurs) ou même d’employer des systèmes de lancement verticaux, permettant d’embarquer une trentaine de missiles, qui ensuite trouveront d’eux-mêmes leur cible (plusieurs versions du MHTK existent, actives ou semi-actives, mais elles possèdent toute la même configuration). Lockheed Martin cherche ainsi à imposer le choix du MHTK comme le système retenu dans le cadre du programme Indirect Fire Protection Capability de l’US Army.

fires3

Mais comment Lockheed Martin a-t-il réussi à miniaturiser un tel système (gage notamment de sa manœuvrabilité une fois dans les airs, sachant qu’il doit intercepter des cibles elles-mêmes très manœuvrantes) ? La réponse : en s’inspirant de technologies civiles !

Son système de tracking utilise ainsi des composants issus de l’imagerie médicale (en particulier en convertissant les radiofréquences en signaux lumineux – pour le coup, c’est le niveau maximal d’information fourni par Lockheed Martin !). Ce faisant, le système gagne en compacité. Les ingénieurs se sont également inspirés de l’industrie des smartphones afin d’en dériver des modules et en particulier d’en exploiter une caractéristique très intéressante : dans un smartphone, l’électronique est conçue de telle façon que les composants n’interfèrent pas entre eux alors qu’ils cohabitent dans un facteur de forme très compact. Une caractéristique évidemment très utile au domaine militaire.

firesA

Ce « baby missile » comme la presse le surnomme déjà est donc l’illustration parfaite des fertilisations croisées entre le monde civil, grand public, et l’innovation technologique de défense. De plus, l’utilisation de technologies dites CE pour « Consumer Electronics » permet de garantir une certaine robustesse. Un smartphone doit pouvoir tomber, encaisser des chocs, des variations de température, sans pour autant cesser de fonctionner. Finalement, le monde civil est parfois plus exigeant en termes de robustesse que le monde militaire.

Le missile MHTK – s’il remporte la compétition – devrait être mis en service d’ici 2022.

raie2

Le titre peut faire sourire, mais la nouvelle est bien sérieuse. C’est la société turque Albayraklar (son site web n’est malheureusement pas traduit en anglais et je ne parle pas le turc donc je ne peux pas vous en dire grand chose) qui a dévoilé une vidéo montrant un essaim de drones sous-marins comparables à des raies manta, évoluant sous l’eau et approchant d’autres poissons, jusqu’au moment où ils détectent la présence d’un porte-avions, se faufilent sous sa coque et font détoner leurs charges explosives. Voici le film (ci-dessous).

Science-fiction ? Invention délirante. Eh bien en fait non. Au-delà de l’aspect un peu kitsch de la vidéo, il s’agit bien d’un projet sérieux. Car l’intérêt du biomimétisme, et dans ce cas particulier d’imiter la raie, c’est de s’inspirer des caractéristiques uniques de sa propulsion. A la différence des requins ou autres poissons osseux, la raie se propulse par un mouvement unique de ses ailes, qui lui confère plusieurs capacités. En premier lieu, la stabilité sans avoir besoin de propulseur, ni de stabilisateurs. Et donc, par conséquence, une grande discrétion sous l’eau : pas de bruit, pas de signature sonar. Ce mode de propulsion par déformation et ondulation des ailes (à l’aide de trois moteurs intégrés dans le robot) lui confère également une grande endurance (12h à une vitesse de 5,5 nœuds). On trouve également deux caméras lui permettant de transmettre une image (voire, à terme, de faire de la reconnaissance automatique).

raie4.jpg

Le robot – de son petit nom Wattozz (a priori une adaptation du mot turc pour « raie ») possède une structure interne en titane et aluminium ; il est recouvert d’une couche de matériau absorbant afin de rendre le métal invisible au sonar, et dispose d’ailerons en silicone. Il comporte aussi des petits électro-aimants qui lui permettent, une fois sa cible repérée, de s’y fixer. Il peut également se poser sur le fond sous-marin, en attente de sa cible. Sa taille n’est pas précisée, mais si l’on en croit la vidéo, il fonctionne par essaim, ce qui signifie qu’il n’est pas suffisamment grand pour infliger les dommages nécessaire à sa cible, à lui seul.

raie3

Comment est-il contrôlé ? C’est une bonne question à laquelle je ne suis pas parvenu à trouver une réponse convaincante. On parle d’ondes sonores sous-marines cryptées, j’imagine qu’il s’agit là d’une formulation pour le canal acoustique sous-marin (ASM) – un mode de communication connu, efficace mais complexe car le milieu sous-marin n’est pas isocélère, et que la propagation du son varie en fonction de la température, la pression hydrostatique ou même la salinité. Cela semble néanmoins être une bonne solution, mais qui requiert un compromis entre robustesse du signal et efficacité du système de transmission. Cependant, je ne suis pas un spécialiste.

Ce n’est d’ailleurs pas la seule initiative de ce genre. On peut par exemple citer le robot Manta de la société Evologic, ou le MantaDroid de la NUSde Singapour (ci-dessous).

Mais c’est en tout cas le seul projet biomimétique militaire de ce type. Il est d’ailleurs si bien intégré dans son environnement biologique, que pour lui éviter de se faire dévorer par des prédateurs, la société Albayraklar a décidé de doter le Wattozz d’un système d’autoprotection par ultrason afin de décourager tout requin qui serait un peu trop gourmand.

Au-delà de l’aspect original, il s’agit bien de biomimétisme appliqué au monde de la défense. Car la propulsion de la raie est bien plus efficace – en termes de vitesse, de discrétion, d’énergie – que celle conférée par une hélice classique.

La nature est donc une superbe source d’inspiration pour les ingénieurs – ainsi, la marine américaine s’est inspirée des nageoires pectorales des poissons pour développer des robots sous-marins coopératifs (« finned bioinspired unmanned underwater vehicles ») en vue de conduire des missions d’exploration en zone littorale ou au plus près des côtes.

raie1

Dans de tels environnements, la turbidité de l’eau, la présence de nombreux courants et d’obstacles ne permettent pas l’emploi de drones sous-marins classiques. En ce cas, la propulsion par nageoires pectorales à très basse vitesse permet une manœuvrabilité inaccessible par des techniques conventionnelles. L’US Navy a ainsi développé WANDA (oui, c’est un acronyme pour Wrasse-inspired Agile Near-shore Deformable-fin Automaton !!!), un drone sous-marin portable capable de se déplacer à 2 nœuds, ou de résister à des courants de 2 nœuds.

On n’arrête pas le progrès, surtout quand il s’inspire de 4 milliards d’années d’ingénierie appliquée, l’Evolution.

face7

Oui, le sujet de ce post est assez énigmatique. Depuis quelques semaines, je multiplie les articles sur l’IA et ses applications militaires ou de sécurité, pour coller à l’actualité. Aujourd’hui, voici deux exemples assez concrets (voire un peu inquiétants) qui touchent au « deep learning » et dont les applications sont véritablement impressionnantes.

Reconnaître des visages dans le noir

face1

La reconnaissance faciale est l’une des technologies les plus connues et les plus immédiates du « deep learning ». Au passage, je me permets un petit rappel, tout le monde n’étant pas spécialiste de l’intelligence artificielle. Le deep learning est un sous-ensemble des techniques d’apprentissage machine à base de réseaux de neurones – le principe est de décomposer de manière hiérarchique le contenu d’une donnée complexe comme de la voix ou une image pour la classifier ensuite.

neuralnetworks

Le terme de deep learning a été inventé par Yann le Cun, actuel directeur du laboratoire d’IA de Facebook en France, pour « booster » sa recherche de fonds dans le domaine des réseaux de neurones qui était alors tombé en déshérence. Au-delà, il regroupe aujourd’hui nombre de techniques d’apprentissage à base de réseaux de neurones profonds, qui ne s’appuient pas sur des règles établies par avance. C’est, au passage, un problème : comme le souligne le rapport Villani, le deep learning est une « boite noire », car on se trouve dans l’incapacité de décrire de façon intelligible le résultat produit sur chaque nouveau cas, et en particulier à pointer les caractéristiques les plus importantes du cas en question ayant conduit au résultat produit.

face2

En l’occurrence, ces techniques sont très efficaces par exemple pour reconnaître des visages : à la fois en raison de la disponibilité d’images pour réaliser l’apprentissage, et de par le développement considérable des capacités de calcul (GPGPU par exemple), des sous-types de réseaux de neurones profonds comme les DCN (deep convolutional neural networks – je ne rentre pas dans le détail) sont capables de reconnaître des visages avec des performances proches de l’humain (voir par exemple le projet DeepFace).

face3

Mais cela, dans le spectre visible. Dans l’obscurité, on traite les images infrarouge, et cela pose un problème car les taux de reconnaissance chutent alors de façon drastique. La nuit, ou même dans certains cas où l’illumination n’est pas suffisante, les techniques de reconnaissance biométrique par réseaux de neurones ne peuvent plus fonctionner, sauf à utiliser une lampe torche, ce qui manque évidemment d’une certaine discrétion. La raison est simple : les visages à reconnaître en infrarouge doivent être combinés à une image provenant d’une base de données qui, elle, a été créée en lumière visible. Comme on le voit sur l’image ci-dessous, la comparaison est difficile.

face4

Pour surmonter ce problème, des chercheurs du ARL (US Army Research Laboratory) et de la firme Booz Allen Hamilton ont imaginé utiliser les réseaux de neurones afin de synthétiser à partir d’une image infrarouge, un visage en lumière visible qui, lui, pourra être comparé aux bases de données normales. Pour ce faire, ils utilisent une double technique : une régression non linéaire à l’aide de réseaux DCN pour extraire des caractéristiques de l’image thermique et construire une première représentation du visage, puis une synthèse et une optimisation des gradients permettant de projeter cette représentation dans le domaine visible – voir le processus ci-dessous et se reporter à l’article suivant qui donne tous les détails .

face10.jpg.png

Le résultat est spectaculaire : l’image synthétisée correspondant au visage non visible en thermique plus haut, est cette fois-ci beaucoup plus proche de sa représentation dans la base de données, ce qui permet une identification par des techniques de biométrie elles-mêmes fondées sur l’utilisation de réseaux de neurones.

face5

Et cela fonctionne très bien: lors de la conférence, les chercheurs ont ainsi utilisé une caméra thermique FLIR Boson 320 avec un portable permettant de faire tourner la démonstration en quasi temps-réel.

Mais les apports du deep learning ne s’arrêtent pas là…

Simuler un visage… et l’animer

Regardez cette vidéo. Non mais regardez-la vraiment….et jusqu’au bout.

 

Ce n’est donc pas Barack Obama qui parle, mais une combinaison d’une captation de son visage et d’un algorithme permettant de remplacer le mouvement de ses lèvres par un mouvement synthétique. Le résultat : on peut lui faire dire n’importe quoi, et je vous défie de le détecter. Impressionnant, et effrayant. Merci à mon fils qui m’a permis d’identifier et d’étudier cette vidéo.

C’est ce que l’on appelle un « deep fake » : un montage extrêmement réaliste permettant de simuler de manière photoréaliste, et grâce à l’IA, une vidéo plus vraie que nature. L’origine de ces fausses vidéos ? Un développeur opérant sur Reddit, sous le pseudonyme de « deepfakes », qui a adapté des techniques de deep learning en source ouverte, afin de substituer un visage de synthèse à un visage réel. Depuis (et après pas mal d’applications dans la pornographie, je vous laisse imaginer) la technique est devenue accessible à tous. L’exemple de Barack Obama montre ce qui est possible de faire, lorsque l’on est un tant soit peu professionnel.

face8

L’idée est de rassembler le plus d’images possibles de la cible (c’est pourquoi généralement les deep fakes s’attaquent à des personnalités publiques, dont les images circulent en grand nombre sur Internet). L’imposture consiste ensuite à apprendre (par deep learning) les traits caractéristiques de la cible – en l’occurrence le mouvement des lèvres – et à les remplacer par une image de synthèse commandée en temps réel par le « marionnettiste » (un individu dont on capte les mouvements des lèvres qui sont ensuite projetés sur les mouvements des lèvres de la cible).

Le souci c’est que l’on croit tout ce qui est sur Internet (la preuve dans mon article du 1er avril largement relayé, ce qui me fait encore rire) et que l’on croit encore plus ce que l’on voit. Ces techniques, qui relevaient il y a un an du projet scientifique, sont aujourd’hui démocratisées et accessibles. Le diagnostic est donc immédiat et fait peur : on ne peut plus croire ce que l’on voit. Reste donc à imaginer des algorithmes permettant, en identifiant les subtiles différences, à détecter l’imposture, et à discriminer le « deep fake » du vrai. Mais si cela reste possible pour les spécialistes et les scientifiques, il sera toujours facile pour un grand nombre d’entre nous de prendre l’image pour la réalité. Une nouvelle ère s’annonce donc, dans le domaine de la propagande et des manipulations psychologiques, une ère dans laquelle la prudence voire la méfiance s’imposent. Et cela, ce n’est pas drôle…

menga2

Cette semaine, rencontre avec l’un de mes amis, David Menga, que certains d’entre vous connaissent sûrement. David est expert dans l’Internet des Objets, l’IA et blockchain appliqués à la smart home, au smart building et à la smart grid.

Dans la vie, il est chercheur à l’EDF Lab et coordinateur technologique du pôle de compétitivité Normand TES (Transactions Electroniques Sécurisées). Il a co-édité avec Nobuo Saito, professeur émérite de l’Université Keio au Japon, un livre intitulé « Ecological Design of Smart Home Networks, Social Impact and Sustainability ». Bref, un chercheur, un curieux insatiable, et un homme de vision notamment dans le domaine de l’Intelligence Artificielle dont nous allons bien évidemment parler. Petite interview entre amis:

David, tu es chercheur à l’EDF Lab. Bon, aujourd’hui toutes les institutions et tous les grands industriels ont leur lab. Alors c’est quoi, l’EDF Lab – un lab de plus ou un précurseur?

EDFlab est le plus grand centre industriel de recherche et formation en Europe. Son rôle est de préparer l’avenir du groupe EDF, à la croisée des mutations numériques et énergétiques.

saclay

Quelles sont tes thématiques et sujets de prédilection ?

Je travaille beaucoup sur les nouveaux relais de croissance pour la branche commerce d’EDF, comment aller au-delà de la vente simple d’électrons et offrir des services à valeur ajoutée à nos clients. Cela signifie trouver des positionnements pertinents pour EDF dans un monde numérique massivement connecté et en pleine transition énergétique vers des systèmes de production décentralisées et renouvelables. Je travaille concrètement sur la digitalisation des tableaux électriques, la transformation des supports d’éclairage en plateformes de services, et la mise en œuvre de coachs énergétiques à travers des intelligences artificielles capables de raisonner et de dialoguer avec un utilisateur en argumentant.

Alors pour les lecteurs de ce blog, tout ceci ne parle pas encore d’innovation de défense, mais bien évidemment, les technologies sont connexes – tu as d’ailleurs participé au projet SOFLAB organisé par le Cercle de l’Arbalète. Allons donc dans le dur – dans ce blog, j’ai beaucoup parlé à la fois des « games changers » comme l’hypervélocité, l’IA et le big data, le quantique (au sens large)… et des pays qui se dotent massivement de moyens pour participer à cette course à la technologie. En particulier la Chine. Quelle est ta perception de la « géostratégie » des ruptures technologiques dans le domaine ? Et d’ailleurs, vois tu d’autres ruptures que celles que j’ai citées ?

Je vois particulièrement des ruptures dans l’univers de la biologie et de la chimie quantique.

J’entrevois l’évolution des usines chimiques actuelles en usines bactériennes programmables capables de produire à la demande les matériaux indispensables à notre civilisation moderne, offrant les mêmes qualités d’usage et biodégradables.
J’entrevois la possibilité grâce au ordinateurs quantiques, de fabriquer à la demande de nouveaux matériaux répondant à des cahiers des charges précis. Ce serait une évolution majeure de l’imprimante 3D.

Plus généralement, je pense que nous allons basculer dans l’ère post silicium, celle du carbone dont on redécouvrira les bienfaits une fois capturé et domestiqué à des coûts acceptables.  En particulier, je pense que l’électronique au graphène et aux nanotubes de carbone va se développer dans la prochaine décennie.

La conséquence de tous ces progrès sera une révolution dans l’énergie, la manière dont on la produit (panneaux solaires au rendements proches de 50 % , turbines au CO2 , éoliennes silencieuses et performantes ) , la manière dont on la distribue ( câbles supraconducteurs, réseau intelligent tolérant aux pannes, courant continu ) et enfin la manière dont on la consomme. Les réseaux énergie sans fil vont se développer avec la mobilité électrique.

La santé est aussi un secteur à fort potentiel d’évolution, avec les progrès de la médecine personnalisée, prédictive, préventive et régénérative. La génomique et l’épigénétique sont au cœur de cette révolution. Enfin, j’entrevois de nouveaux modèles économiques où le consommateur est au centre de la proposition de valeur grâce à la blockchain.

Pour l’instant, toutes ces transformations sont tirées par la Chine et les Etats Unis. L’Europe place ses efforts dans la règlementation et l’éthique, certes nécessaires mais non producteurs de richesses.

De la même manière, on assiste à la consolidation des acteurs privés de la technologie – les GAFA (Google, Apple, Facebook, Amazon) mais pas seulement. Quelle est ta vision de l’évolution du paysage, et qu’anticipes-tu comme impact dans le domaine de la défense et de la sécurité ?

Je pense que les grandes entreprises GAFA et BATX (note : BATX = Baidu, Alibaba, Tencent et Xiaomi) vont prendre de plus d’importance dans les états où ils opèrent. L’affaire Cambridge Analytica montre les dérives d’un système sans contrôle, avec la manipulation à large échelle de l’opinion, ce qui pose des problèmes de sécurité nationale.

menga4

De plus, leur maîtrise de l’IA les rendra indispensables pour construire des systèmes de défense efficaces, comme le montre l’utilisation de l’outil Tensorflow de Google par les militaires américains. (Note: voir mon dernier article sur le projet MAVEN)

Parlons d’IA. La mission Villani vient de s’achever et le président a présenté le rapport il y a deux semaines lors d’une « grande messe de l’IA » au Collège de France (une première dans le domaine). En premier lieu, que penses-tu de ce rapport et des préconisations qui y sont présentées ?

Le rapport Villani pose un bon diagnostic sur l’importance de l’IA dans la société, mais apporte des réponses trop sectorielles, trop limitées. Plus de recherche en deep learning, plus de données en mode ouvert, plus de puissance de calcul disponible pour les scientifiques, cela ne constitue pas une réponse industrielle au retard colossal de la France en la matière.  Cela renforce la vassalisation de notre recherche aux intérêts des géants de l’Internet, GAFA ou BATX.

1109237-le-depute-mathematicien-cedric-villani-lrem-lors-d-une-intervention-sur-l-intelligence-artificielle-

D’ailleurs, le jour même, Google comme Samsung annonçaient la création d’un centre de recherche IA en France. Matière grise en France, subventionnée par le contribuable et profits à l’étranger, renforçant notre déficit commercial.

En un mot, le rapport Villani est un « plan calcul du deep learning ». Nous connaissons tous la suite.

C’est sévère. Alors pour rester compétitive dans ce domaine, que doit faire la France, notamment dans le domaine du hardware (et de l’open hardware) ?

La France doit investir massivement dans l’IA post deep learning, l’IA prévisionnelle, capable de raisonner et de planifier dans un univers incertain, avec des informations parcimonieuses et incomplètes. Une IA capable d’apprendre à partir de ses expériences sensorielles et de ses interactions avec les humains, intégrable dans des systèmes embarqués à basse consommation, autant qu’une lampe LED. Bref, une IA capable de s’adapter à des contextes variables en milieu ouvert.

Cela requiert de nouveaux hardwares à inventer, une nouvelle architecture post Von Neumann, couplant données et traitements et d’immenses facultés de parallélisation des tâches. Et bien sûr , une nouvelle façon de concevoir des algorithmes et de les implémenter. Le cerveau fournit un bon modèle qu’il s’agira de comprendre et de dépasser. L’Open Hardware, comme le RISCV , doit être au cœur de ce programme ambitieux car il ne s’agit pas de réinventer la poudre. Inspirons nous du programme Celerity de la DARPA.

La France doit mettre l’IA au cœur de ses formations qualifiantes, pour habituer les étudiants à mieux collaborer avec elles. Il s’agit d’offrir aux étudiants des « Legos » IA programmables et composables, le tout avec de l’open hardware et de l’open source. Il importe de créer une industrie des machines outils de l’IA, des IAs capables de fabriquer d’autres IAs plus spécialisées à partir de composants open source ou pas.

menga3

Pensez à une IA de conception de circuits électroniques comme celle de Thingtype
couplée à une imprimante 3D de PCB comme celle de Nanodimension plus une IA de génération de logiciel. Il s’agit de construire des produits/services intégrant directement de l’IA et répondant à un cahier des charges précis. En un mot, la France doit maîtriser les outils pour bâtir ce que j’appelle « l’atmosphère IA», c’est dire des IAs massivement intégrées dans notre société.

Enfin, Elon Musk a dit « le meilleur moyen de se faire une petite fortune dans le domaine spatial, c’est de commencer avec une grosse ». Si tu avais aujourd’hui de l’argent pour financer des projets innovants, et je parle là du domaine de la défense et de la sécurité au sens large, que penserais tu financer ?

En toute cohérence, j’investirais massivement dans ces fameuses « machines-outils IA » permettant de produire des IA embarquées à vocation militaire, capables de remplir soit des missions de renseignement dans des drones miniatures de type libellule, soit des missions d’attaque en essaims avec des armes infrasoniques.

voice1

La voix humaine a cela de spécifique qu’elle est supposée provenir d’un humain. Dit comme cela, ça semble évident, mais si vous regardez par exemple le film « Annihilation » sur Netflix (non je n’ai pas d’actions mais j’aime bien le cinéma), où un redoutable prédateur imite la voix humaine pour attirer ses proies, alors vous comprenez vite le côté légèrement anxiogène d’une voix humaine non humaine (sic). Ci-dessous la bébête, pour info.

voice4

Alors imaginez maintenant qu’une voix désincarnée mais manifestement humaine retentit soudainement dans l’espace juste à 30 cm de votre visage… Pas possible?

C’est pourtant ce que le Pentagone est en train de faire en utilisant une technologie peu commune à base de lasers. Jusqu’à maintenant, dans ce blog, nous avions parlé à plusieurs reprises des lasers utilisés comme armes (notamment dans le contexte de l’apparition de missiles hypersoniques trop rapides pour être neutralisés par des armes conventionnelles). Mais les lasers peuvent être utilisés dans de nombreux autres domaines. Ici, il s’agit d’une technique baptisée « Effet Plasma Induit » (Laser Induced Plasma Effect) et met en œuvre deux faisceaux laser.

voice3

Le principe repose sur la génération à partir d’un premier laser femtoseconde d’une boule de plasma – en gros, il s’agit de focaliser des impulsions laser sur une région (un point dans l’air) pendant une quinzaine de seconde. L’effet obtenu c’est la génération à partir de molécules de l’air d’un champ électrifié (les électrons étant littéralement arrachés par les impulsions laser).

voice6

Cette boule de plasma est très réactive aux radiations électromagnétiques. Lorsque l’on focalise un second laser (cette fois-ci un nanolaser dont les longueurs d’ondes se trouvent dans une fourchette extrêmement étroite) alors la boule de plasma réagit en émettant de la lumière… et du son.

En l’occurrence, la fréquence du son peut être contrôlée de manière à ressembler à la voix humaine. Les chercheurs n’en sont pas encore là : aujourd’hui on obtient un son bizarre, déformé mais dont on perçoit qu’il peut rapidement être intelligible (voir vidéo ci-dessous à regarder avec le son – idéalement un casque).

Ce que les chercheurs confirment d’ailleurs : selon David Law, directeur du laboratoire JNLWD du ministère de la défense américain (JNLWD signifiant Joint Non-Lethal Weapons Program : programme interarmées d’armes non létales), il ne manque que 3 ou 4kHz de plus pour obtenir…un point dans l’air capable d’émettre des paroles intelligibles. Une capacité envisagée dans moins de trois ans.

A quoi cela sert-il ? Imaginez des ennemis ou des populations qui soudainement se trouvent confrontés à une voix venue de nulle part, au-dessus de leur tête, sans enceinte visible… Le but est clairement de faire peur, ou de défendre un point de passage, ou une frontière. D’autant plus que l’arme est puissante : elle peut également générer de la chaleur et donc faire fuir les individus ciblés, ou émettre des sons imitant des coups de feu ou des explosions. La vidéo complète se trouve ci-dessous :

A terme, en utilisant des optiques de grand diamètre, on peut imaginer cibler un point dans l’air à plusieurs dizaines de kilomètres – en utilisant notamment un effet baptisé l’effet Kerr et dont nous avions déjà parlé dans cet article.

On a donc ici une arme non létale, capable de flanquer les chocottes à un combattant, un trafiquant ou un intrus à une trentaine de kilomètres, tout en épargnant les individus qui se trouveraient entre l’émetteur et la cible. D’autant que l’émetteur pourrait être aéroporté sur un hélicoptère, un avion ou un drone. On connaissait l’expression « eye in the sky » – les concepteurs d’opérations psychologiques (psyops) peuvent maintenant envisager l’effet « scary voice in the air ». Nous vivons une époque formidable…

maven1

Après mon dernier poisson d’avril (oui, c’en était un et il a mieux fonctionné que je ne le pensais), je reprends le fil des « véritables » nouvelles (je rappelle que le premier avril est le seul jour où les internautes sont supposés vérifier une information avant de la croire – sic).

En l’occurrence, une nouvelle qui commence à faire du bruit, et qui a déclenché l’ire des employés de Google ; le géant du net, désormais l’un des pionniers du « deep learning », fournit sa technologie au Pentagone, notamment pour réaliser l’analyse d’images prises par des drones ou des satellites.

Cela fait un certain temps qu’on le rappelle : l’intelligence artificielle est aujourd’hui tirée par le marché civil, et en particulier le grand public. Les investissements se poursuivent et même s’amplifient dans des sociétés proposant des technologies d’apprentissage machine ou d’intelligence artificielle. Dernière en date, la « licorne » chinoise SenseTime qui vient d’annoncer avoir procédé à une levée de fonds de 600 M$, pour une valorisation de la société à 4.5 milliards (oui, milliards) de dollars… Nul doute d’ailleurs que le vaste programme d’espionnage des citoyens chinois – digne du meilleur épisode à mon sens de la série Black Mirror (« the fall ») –  a contribué à valoriser les programmes de reconnaissance faciale et d’analyse d’images.

maven9

L’avance de sociétés comme Facebook, Apple ou Google dans le domaine de l’IA n’est plus à prouver. C’est donc naturellement que le Pentagone s’est tourné vers Google quand il a réalisé qu’il ne pourrait traiter manuellement le torrent d’informations (images et vidéos) déversé par les drones militaires.

Le programme s’appelle donc Maven, et est réalisé depuis 2017 par une équipe mixte (Google et le DoD américain) baptisée AWCFT pour Algorithmic Warfare Cross-Functional Team. En 2017, Greg Allen et Taniel Chan avaient publié ce rapport dont je vous conseille la lecture – le même Greg Allen a récemment déclaré que si le ministère de la défense américain a bien financé de manière importante le développement de nouveaux capteurs image pour les drones aériens, il a en revanche un peu négligé les outils d’analyse nécessaires afin de donner du sens aux données recueillies.

Pour mieux en juger, voici quelques chiffres : l’armée américaine s’est équipée de 11 000 drones aériens (!). Chacun de ces drones génère un déluge de données images (au total, l’équivalent de 37 années de vidéo)…et 99% de ces données ne sont analysées par personne. En France, le général Ferlet, commandant la Direction du Renseignement Militaire, a également évoqué le sujet sur Europe 1 en décembre dernier: « Il y a une explosion exponentielle des données à traiter. Mais je ne suis pas naïf, je n’aurais pas une augmentation exponentielle des moyens humains pour traiter ces données. Il faudra donc trouver d’autres moyens, basés sur l’intelligence artificielle. Ce sera ma priorité numéro une dans les années à venir ».

maven5

Retour donc au projet Maven. Son premier objectif : utiliser l’IA et l’apprentissage machine pour détecter et identifier des objets (véhicules…) dans les vidéos transmises par les drones. En tout, dans cette première phase du projet, 38 catégories d’objets ciblés ont été définies. Pour ce faire, du logiciel bien sûr, mais pas seulement. A priori, Google fournirait des API Tensorflow aux équipes du ministère.

maven6

Rappelons que Tensorflow, développé par Google, est un outil open source de référence dans le domaine de l’apprentissage machine – éventuellement, la société pourrait fournir également du hardware, en l’espèce, des circuits Tensor (circuit intégré développé par Alphabet/Google spécifiquement pour l’IA).

maven7

L’idée est d’accélérer au maximum le projet Maven, un projet déjà tendu puisque six mois après son lancement, l’été dernier, le projet était supposé déjà opérationnel (en particulier dans la lutte contre le terrorisme en Irak et en Syrie).

Bon, le projet Maven ne plait pas à tous ; des milliers d’employés de Google ont ainsi signé une pétition demandant à l’entreprise de mettre fin à sa collaboration avec le Pentagone. A cela, certains rétorquent que justement, l’objectif de Maven était d’éviter des frappes mal ciblées, et des dégâts collatéraux en optimisant l’efficacité des drones. Gonflé.

maven3

Mais les risques de dérive sont réels. S’il s’agit de classer des images pour présenter ensuite à des analystes humains les plus susceptibles de fournir des informations tactiques, alors il faut être certain (1) que le système ne peut pas être piraté (car on peut « orienter » l’apprentissage) et d’ailleurs (2) qu’il n’y a pas de biais natifs dans la base d’apprentissage.

Revenons sur le « hacking » des systèmes d’IA ; c’est par exemple ce que l’on appelle aujourd’hui des « BadNets » : des réseaux de neurones dont la base d’apprentissage a été volontairement altérée pour introduire des signaux destinés à permettre à un hacker de modifier la réponse du système dans certaines conditions. Ainsi, à titre d’illustration, en utilisant des micro-modifications de pixels, un hacker peut permettre à un système de détection faciale de laisser passer les images de terroristes sans lever d’alarme. Je vous conseille par exemple la lecture de cet article qui démontre comment on peut arriver à faire en sorte qu’un réseau de neurones dont l’apprentissage a été altéré puisse dans certaines conditions prendre un panneau Stop pour un panneau de limitation de vitesse (je vous laisse imaginer les conséquences pour un véhicule autonome).

maven2

Au-delà, cette méthode (utiliser un partenariat avec l’industrie privée pour accélérer le tempo de développement d’une application de défense) illustre bien la philosophie prédominante aujourd’hui : en l’occurrence, c’est la structure DIUX (Defense Information Unit Experimental) située au cœur de la Silicon Valley qui est chargée d’identifier et d’organiser les transferts possibles.

cool

Une approche qui pourrait fonctionner en France (c’est en tout cas dans la lignée des annonces réalisées autour de l’innovation de défense par la Ministre des armées) – à condition toutefois de mettre en place des dispositifs permettant à l’Etat d’acheter très rapidement des solutions commerciales, pour expérimentation immédiate. Une approche novatrice qui, je le pense, est indispensable pour aller au-delà des intentions, et capturer l’innovation de manière optimale. Faute de quoi, il sera difficile d’établir de véritables passerelles entre ces deux mondes qui aujourd’hui, au-delà des réticences « philosophiques » qu’il ne m’appartient pas de commenter, se côtoient sans véritablement s’intégrer.

z0mui8donujpc1fk5qbo

Le monde de la haute technologie et de la bioingénierie ne cessera jamais de nous surprendre. Alors que la Ministre Florence Parly annonce la création d’une agence de l’innovation de défense, et que le ministère des armées crée son « Defense Lab », c’est la DARPA qui annonce aujourd’hui une collaboration inédite avec la DGA.

En l’occurrence, il s’agit de s’appuyer sur le programme NESD (voir cet article) afin de développer un système automatique d’activation de neurones. Fondé sur des principes identiques à la stimulation transcrânienne, il permet d’envoyer des micro-courants afin de stimuler la plasticité synaptique.

darpa-implant-booster-connecter-cerveau

Comme toute innovation technologique, ce système a sa « killer app », à savoir son application phare. En l’occurrence, même si les détails ont très peu filtré, il s’agit de pouvoir équiper des micro-drones de moyens d’injection d’une micro-sonde de type NESD, permettant de traduire les communications électrochimiques du cerveau en signaux numériques. L’idée est ainsi de pouvoir modifier l’agencement et la performance des synapses, afin de restaurer notamment des fonctions avancées de raisonnement. Oui, cela fait peur, mais ce serait pour la bonne cause.

La première application serait dans le domaine anti-terroriste. Le professeur Mayfish, de l’université de Princeton, dont les travaux ont été financés par la DARPA, s’est ainsi rapproché de l’IRBA en France afin de développer un activateur de neurones. Une fois injecté dans le cerveau de la cible, les capacités cérébrales seraient ainsi décuplées de manière durable.

DARPA-TNT

La volonté affichée des deux gouvernements français et américain serait de cibler les terroristes ainsi que tous leurs potentiels admirateurs, par des frappes de micro-drones. Une fois injecté dans le cerveau du terroriste – ce dernier étant identifié grâce à des capteurs d’image implantés sur le drone lui-même, collaborant avec des caméras de surveillance permettant d’effectuer un macro-ciblage (programme de coopération franco-chinois) – l’implant s’active par réception d’un signal satellite.

0

Outre le fait de pouvoir désormais suivre le terroriste, l’activateur de neurones permet de retrouver un fonctionnement cérébral normal, et d’éveiller le sujet ciblé de manière à ce qu’il puisse, in fine, retrouver un niveau mental adéquat. L’effet final recherché est la restauration d’une activité électrique dans le cerveau afin de lui fournir les moyens mentaux élémentaires, nécessaires à l’inhibition de comportements à risque. On estime qu’avec un implant injecté, un terroriste cessera de foncer en voiture sur des militaires, de se faire exploser, de prendre des otages, de parler des infidèles, de prôner la suprématie blanche, ou de violer des femmes. L’activation de neurones permettrait d’éviter également à de nombreux kamikazes de choisir cette voie. Car plusieurs d’entre eux n’arrivent même pas à quitter leur camp d’entraînement ou leur planque : dans les embrassades avec leur groupe la pression déclenche les explosifs logés sous leur veste (voir cet article de 2010).

 

Le système a été d’ores et déjà testé avec succès en France sur des sujets à risque, qui ont immédiatement retrouvé une capacité d’émerveillement, notamment en constatant que la France était un beau pays, et que l’art de vie à la Française (son fromage, son vin, son andouillette ou son pied de cochon) devait être préservé et encouragé pour le bonheur des civilisations futures. En revanche, l’injection tentée sur un ex-candidat aux législatives qui avait commis un tweet lors de la mort du Colonel Beltrame a raté, l’implant s’étant malheureusement logé dans son postérieur – avec les effets que l’on connaît.

Une technologie à suivre, qui pourrait connaître de nombreux développements dans le futur – notamment dans le domaine de la politique et du management. A suivre donc, nul doute que cette date historique dans l’épopée de la technologie sera – des dires mêmes du professeur Mayfish – un repère éclatant pour le bien de l’humanité.