Archives de la catégorie ‘C4ISR et CMI’

20161123_115905_resized

Vous êtes quelques-uns à reprocher (gentiment) à ce blog une certaine orientation vers la recherche américaine. Ce n’est pas une volonté, mais une conséquence (1) des conséquents budgets américains en termes de R&D de défense et (2) d’une maîtrise certaine de la communication par nos voisins outre-Atlantique (les amenant d’ailleurs parfois à communiquer avec un certain talent des programmes politiques n’ayant pas grand-chose à voir avec la réalité, je dis ça comme ça….).

Une fois par an, la DGA organise son Forum Innovation. C’était hier et aujourd’hui, sur le site de Palaiseau, et pour le coup, cela amène une réelle volonté active de communication de la part à la fois de institutionnels, mais aussi des laboratoires et des petites entreprises. J’ai donc fait mon marché de l’innovation, en voici un premier résultat.

20161123_115841_resized

Le projet s’appelle AXONE. Il s’agit d’un système neuronal artificiel capable de réaliser des tâches d’analyse de scène en temps réel. Il s’agit du résultat d’un projet RAPID (Régime d’Appui pour l’Innovation Duale – voir la page de référence ici ) associant l’Institut Saint-Louis, la société Spikenet Technologies et la société GlobalSensing Technologies.

L’idée est d’utiliser un certain type de réseaux de neurones artificiels, les neurones à Spike, pour procéder à l’analyse en temps réel d’une scène visuelle, et de les embarquer sur des composants dédiés (SoC ou Systems on Chips). Je vais essayer d’expliquer simplement le concept – et ce, d’autant plus que j’avais travaillé il y a plus de vingt ans avec le Pr Simon Thorpe, créateur de la technologie SpikeNet (il me semble que j’ai même commis un article sur le sujet…).

20161123_115838_resized

Pour faire simple : en neurobiologie, on se pose depuis longtemps la question de la nature du codage de l’information par les neurones. La théorie générale est fondée sur un codage fréquentiel de l’information (fréquence des décharges électriques). Mais il existe une autre théorie reposant sur un codage temporel de l’information : le codage serait fait par des impulsions (spikes) ou plus précisément par les instants d’émission des impulsions. On prend donc en compte l’aspect temporel. Un réseau artificiel de neurones à spike est conçu pour simuler des réseaux qui contiennent un nombre très grand de neurones à décharge asynchrone et qui apprennent par codage des séquences de décharge. On appelle cela le codage par rangs (évidemment, je simplifie). Cette technologie est très utilisée pour la reconnaissance de formes, et en particulier le traitement d’images.

L’intérêt de cette technologie est que le temps d’apprentissage est très rapide, et très tolérant (aux conditions d’illumination, au bruit, aux contrastes…). Dans le projet AXONE, les participants ont ainsi pu implanter un réseau de neurones à spike sur une carte dédiée (ce que l’on appelle un processeur FPGA). En gros, il s’agit d’un processeur reconfigurable, comportant 1024 neurones artificiels, et conçue par la société GlobalSensing Technologies. Avec SpikeNet et l’ISL, et en 24 mois, les acteurs du projet AXONE ont réalisé une caméra reconfigurable générant des Spikes en lieu et place des images. Le travail a ainsi consisté (outre évidemment l’algorithmique sous-jacente) à intégrer ce réseau de neurones artificiel avec un capteur, au sein d’une caméra autonome, et de développer la librairie logicielle pour la mise en œuvre de ces composants.

20161123_115903_resized

Et le résultat est impressionnant. Lors de la présentation au Forum DGA, on a pu ainsi visualiser la reconnaissance de visages en temps réel (chaque visage est reconnu, en temps réel, avec sa signature unique). Les applications sont nombreuses : sécurité et surveillance de sites sensibles avec levée de doute par la caméra elle-même, capteurs abandonnés capables de réaliser une analyse in situ (voir mon article sur l’IA embarquée), et évidemment, augmentation de la capacité de reconnaissance de forme en robotique et en particulier pour les drones.

20161123_115855_resized

J’ajoute que la DGA a pris une initiative originale : celle de faire parrainer certaines innovations par des personnalités de l’institution. En l’occurrence, AXONE est parrainée par l’excellent Lionel MORIN, directeur du CATOD (Centre d’Analyse Technico-Opérationnelle de Défense) – ci-dessous.

20161123_123107_hdr_resized

Une technologie à suivre, et une excellente illustration des capacités d’innovation de l’écosystème français de la Défense – je publierai d’ailleurs bientôt d’autres articles suite à ma visite sur le forum Innovation.

ukraine1

Si vous vous en souvenez, j’avais déjà parlé de ces projets de blindage « transparent » : l’idée de munir un chef d’engin de lunettes de réalité virtuelle afin de pouvoir disposer d’une vue de ce qui l’entoure, simplement en regardant autour de lui (voir cet article).

L’idée du blindage transparent n’est donc pas nouvelle. Il y a le véritable blindage transparent réalisé à partir de matériaux comme la spinelle (voir également cet article), mais surtout l’idée d’utiliser des dispositifs de réalité virtuelle qui agrègent l’information visuelle ou thermique fournie par les capteurs externes, et permettent au regard du chef de « percer le blindage ». La société Finmeccanica avait d’ailleurs démontré un tel prototype pour un pilote d’hélicoptère lors du salon du Bourget 2013. Et l’armée norvégienne avait réalisé une expérimentation en utilisant le casque de réalité virtuelle Oculus Rift dans le même but (image ci-dessous).

article-2621476-1D9D205400000578-542_634x356

L’idée refait aujourd’hui surface, à la fois stimulée par l’émergence de nouvelles technologies de casques à réalité virtuelle et augmentée, et sous l’impulsion d’opérationnels…ukrainiens. Car une start-up de Kiev, Limpid Armor, vient de remporter une bourse de Microsoft pour développer une technologie de casque à réalité augmentée fondée sur la technologie Hololens.

ukraine3

Un petit mot sur cette technologie dont on parle depuis au moins deux ans. Il s’agit d’une technologie développée par Microsoft de réalité augmentée : des lunettes semi-transparentes, capables d’injecter dans la vision de l’utilisateur des images « holographiques » qui viennent se superposer à la vision de l’environnement de ce dernier. Les lunettes pèsent environ 400g et offrent un champ de vision de 120° par 120°. Mais surtout, avec une qualité de projection d’hologramme 3D assez bluffante. En fait, Hololens est un ordinateur en soi, et permet de percevoir des projections holographiques extrêmement brillantes, même dans un environnement lumineux.

La vidéo institutionnelle de promotion d’Hololens est présentée ci-dessous.

Bon, à la différence de ce que l’on voit dans la démo, le champ visuel est très – trop – réduit. En fait, il conviendrait d’avoir du 180° par 180° pour obtenir une qualité de projection réellement satisfaisante. Cela n’est néanmoins pas un obstacle pour le projet de Limpid Armor. Cette société a donc développé un concept alliant la technologie Hololens avec un réseau de caméras situées à l’extérieur du véhicule. Le système est baptisé CRS pour Circular Review System. Il fusionne les informations des caméras en une image composite, et serait même capable de réaliser du « blue force tracking » en réalité mixte : désigner au chef d’engin les forces alliées en superposant un identifiant sur le terrain réel. L’idée serait également d’aller vers la désignation au chef des cibles ou unités ennemies, directement dans son champ de vision.

ukraine2

L’idée est assez séduisante, même si le concept précédent, utilisant un casque de réalité virtuelle et non mixte (l’Oculus Rift) a très vite montré des limites opérationnelles : fatigue des yeux des opérateurs, surcharge informationnelle, mais surtout angoisse générée par l’impression de « ne pas être protégé », le blindage devenant transparent.

De telles innovations, même si elles paraissent séduisantes pour un technophile, doivent donc toujours être examinées par le prisme opérationnel. En particulier, ce cas d’école montre qu’il est nécessaire et même indispensable de prendre en compte les aspects liés aux facteurs humains, physiologiques comme psychologiques. La technologie ne fait pas tout. En tout cas, tant que les chars seront commandés par des hommes.

rachine1

Il y a quelques temps j’avais parlé dans ce blog du premier satellite utilisant le principe d’intrication quantique des photons pour réaliser une transmission cryptée (voir cet article). Cette fois-ci, il ne s’agit plus de cryptographie, mais d’une technologie plus directement opérationnelle : un radar tueur de furtivité.

Bon, je préviens tout de suite, nous sommes encore une fois dans le domaine quantique, donc dans un domaine parfaitement contre-intuitif, et mon effort de vulgarisation (surtout si l’on considère que je ne suis pas physicien) risque de m’attirer les foudres des experts. Désolé donc.

Le principe du radar quantique repose lui aussi sur le principe de l’intrication des photons, une propriété surprenante à l’échelle quantique. Pour faire simple, en physique quantique, l’état d’une particule est décrit par une « fonction d’onde ». Celle-ci correspond au spin de la particule (son moment cinétique, classiquement représenté par une flèche vers le haut ou le bas) et qui lui-même correspond à une superposition d’états. A l’échelle quantique, le spin est en effet une somme des états « vers le haut » et « vers le bas ».

Mais lorsqu’on mesure l’orientation du spin, la fonction d’onde est modifiée (« réduite ») de telle sorte que la superposition d’états disparaît et le spin observé prend, de façon aléatoire, la valeur « haut » ou la valeur « bas ». Pour l’instant, c’est encore compréhensible. Ça devient plus complexe lorsque l’on considère qu’en physique quantique, on peut avoir une généralisation de la superposition d’états à plusieurs particules. En l’occurrence, considérons 2 photons dits « intriqués » : ce sont deux particules dont les spins sont opposés. Même si ces particules sont spatialement éloignées, si l’on mesure le spin de la première, la seconde prend instantanément une valeur de spin opposée. Oui je sais, c’est bizarre. Mais c’est comme ça.

rachine3

Le radar chinois repose sur ce principe. L’astuce est d’utiliser la polarisation du signal radar comme une signature quantique. Un photon est séparé, via un dispositif optique, en un couple de photons intriqués. Le radar va ainsi générer un faisceau de photons A, et un faisceau de photons B, intriqués. Les photons B sont surveillés constamment (là encore, vous comprenez que je simplifie), alors que le faisceau A est envoyé en direction de la cible. Si la fonction d’onde du faisceau B se modifie, cela signifie que le faisceau de photons A a atteint une cible, ce qui a provoqué une modification de son spin, et ainsi modifié instantanément celui du faisceau B intriqué.

rachine4

L’intérêt, c’est que cette modification est indépendante de la forme de la surface heurtée. La furtivité classique consiste à minimiser la surface équivalente radar en supprimant autant que possible la réflexion des ondes en direction du radar. Mais dans le cas d’un radar quantique, il ne s’agit pas de détecter une onde réfléchie, mais de détecter une modification de l’état d’un faisceau de photons. Les stratégies classiques de furtivité sont donc inefficaces, comme le sont les contre-mesures de brouillage : le radar quantique n’utilise pas d’ondes ! De plus, l’interaction du faisceau de photons avec la cible est caractéristique de la nature de la cible elle-même : en observant les modifications du faisceau B, on arrive à caractériser la cible, sa position, sa vitesse et ses propriétés physiques.

rachine2

Ce radar a été développé par le Intelligent Perception Technology Laboratory du CETC (China Electronics Technology Corporation). Selon l’agence de presse chinoise, le système aurait réussi à détecter une cible à une distance de 100km. Ce n’est effectivement qu’une preuve de concept, et l’utilisation militaire d’une telle technologie nécessite évidemment des portées bien plus importantes. Il y a d’ailleurs là une difficulté : ce que l’on appelle la décohérence. Car plus les particules intriquées passent de temps dans le monde réel, plus elles ont tendance à perdre leurs propriétés quantiques. Lockheed Martin avait d’ailleurs tenté à plusieurs reprises de réaliser un tel radar, avant de se heurter au principe de décohérence.

Les allégations chinoises sont difficilement vérifiables, mais il est néanmoins vrai que la maîtrise d’une telle technologie constituerait une rupture capacitaire et stratégique. Une véritable réflexion sur l’impact de telles innovations (informatique et technologies quantiques, convergence NBIC, …) et sur leur financement, pour éviter à notre pays et à notre continent toute surprise stratégique majeure me semble aujourd’hui indispensable. Mais ce n’est que mon avis.

ge2

Nul doute, alors que la bataille de Mossoul débute, que la guerre électronique (GE) prend une grande part dans la préparation et l’implémentation des opérations militaires modernes. Outre la défense de ses propres moyens électromagnétiques, l’écoute et le renseignement, il s’agit d’empêcher l’utilisation du spectre électromagnétique de l’adversaire, par le leurrage, le brouillage, ou l’intrusion dans ses systèmes.

Mais ne croyons pas que cette capacité est l’apanage unique des grandes puissances. Tous les combattants aujourd’hui sur le théâtre s’affrontent sur le terrain des ondes, à l’aide de brouilleurs, intercepteurs, ou en leurrant les réseaux de communication. La compréhension fine des émissions électromagnétiques sur le champ de bataille est donc aujourd’hui incontournable pour conférer un avantage tactique aux combattants impliqués. Cela permet d’interférer avec un guidage de missile adverse, de garantir la fiabilité des données de géolocalisation (qui pourraient être volontaire modifiées par l’adversaire, etc…), et évidemment, d’interférer avec les systèmes ennemis, par exemple en rompant leur chaîne de commandement.

ge4

Dans ce contexte, la société BAE, à la demande de la DARPA américaine, a développé un terminal ultraportable de GE. L’idée est d’avoir un dispositif tactique portable capable de conférer à son porteur la capacité de comprendre les différents signaux de radiofréquences dans lesquels il est immergé.

Il ne s’agit pas uniquement d’électronique (même si la taille et le poids sont en l’occurrence critiques), car pour pouvoir comprendre le « champ de bataille des fréquences », il est nécessaire de disposer d’algorithmes mettant en œuvre des techniques d’analyse du signal et d’Intelligence Artificielle. Cette analyse doit être réalisée au niveau tactique, sur le terrain (au lieu de devoir communiquer les signaux et de procéder à leur analyse au niveau du poste de commandement). Cette analyse, BAE la réalise en utilisant ce que l’on appelle des algorithmes Bayésiens d’apprentissage machine. Vous trouverez sur Internet nombre d’articles expliquant cette technologie, et je me bornerai donc à dire ici qu’un algorithme Bayésien est un graphe orienté probabiliste, capable de tenir compte simultanément de connaissances a priori et de l’information contenue dans les données, et d’améliorer son analyse au fur et à mesure que de nouvelles bases de données lui sont présentées.

ge0

Evidemment, BAE ne fournit pas beaucoup d’information sur la manière dont son algorithme fonctionne (ce qui reviendrait à donner des recettes pour le contrer), mais on peut imaginer qu’il se nourrit des informations capturées lors des missions passées. Cette même approche a d’ailleurs été implémentée par la même société, en ce qui concerne les systèmes de GE de l’avion de chasse F-35.

ge3

Les systèmes portables de BAE seraient ainsi fournis avec une configuration initiale qui exploiterait au maximum les interceptions et formes d’ondes déjà connues, et pourraient évoluer en fonction des situations rencontrées sur chaque théâtre d’opérations (voire partager cette connaissance commune entre deux théâtres). En présence d’un signal analogue à un signal déjà vu, il pourrait adapter sa réponse (par exemple en augmentant la puissance d’émission radio si le signal adverse semble correspondre à une tentative d’affaiblissement du signal, ou en utilisant une autre portion du spectre si l’IA prédit qu’il s’agit d’une tentative de brouillage).

Et cela semble fonctionner puisque BAE annonce, lors des premiers tests, avoir pu identifier plus de 10 signaux différents, sur une grande largeur de spectre, et en présence de dispositifs de brouillage et d’interférence. On peut même imaginer dans un futur proche que cette IA soit considérablement dopée par son embarquabilité sur des processeurs spécialisés (je pense par exemple aux travaux de la jeune société française SCORTEX, aujourd’hui dans le domaine de la vision mais potentiellement dans d’autres domaines demain – si cela peut donner des idées à nos groupes industriels nationaux)

ge6

L’idée est ainsi d’analyser la « soupe » de signaux électromagnétiques, d’en identifier les caractéristiques, d’en cibler les plus pertinents, et d’indiquer au combattant comment utiliser ses propres technologies de GE pour pouvoir les contrer ou échapper aux détections adverses.

Ce projet est intéressant car il montre la réalité de ce que les américains (et en particulier le précédent ministre américain de la Défense, Chuck Hagel et portée par le ministre adjoint de la défense, Bob Works – ci-dessous) appellent la « third offset strategy».

ge1

La première stratégie sous l’administration Eisenhower visait à compenser la supériorité soviétique par la dissuasion nucléaire. La seconde, à la fin des années 1970, visait cette fois, à compenser la supériorité conventionnelle quantitative par l’investissement dans les technologies de l’information et le développement de doctrines et d’un complexe « reconnaissance-frappe » de précision (missiles guidés, etc.). La stratégie de 3e offset vise à assurer leur domination pure tant militaire que stratégique, et l’Intelligence Artificielle en est une composante essentielle. En multipliant le contrôle et le développement de normes sur l’IA, les Etats-Unis imposent leurs outils et leurs technologies permettant à l’IA de contribuer préférentiellement à la souveraineté américaine.

ge5

La multiplication des initiatives mettant l’IA au cœur de systèmes militaire n’est donc pas conjoncturelle mais bien préméditée. En combinaison avec la GE, il s’agit donc bel et bien de démontrer une supériorité qui va bien au-delà de l’échelon tactique. Car comme le disait le Général Siffre dans le livre « Maître des ondes, maître du monde » : « le spectre électromagnétique est le lieu de passage et d’échange des messages chargés de secrets du pouvoir politique, économique, financier, terroriste et mafieux. Qui sera maître de ces secrets cachés sur le spectre électromagnétique sera maître du monde ».

Note: ce blog évolue – vous ne devriez plus y voir de publicités, et vous pouvez aujourd’hui y accéder par un nom de domaine plus simple: VMF214.net

cerdec3

Le GPS est aujourd’hui tellement répandu que l’on oublie même son usage, à moins que l’on se trouve dans un tunnel. Mais les combattants sur le terrain doivent, quant à eux, compter sur un système fiable et continu. Or de nombreux facteurs peuvent affecter la réception du signal : le terrain lui-même, notamment en environnement urbain, ou le brouillage volontaire ou non du système.

Afin de maintenir cette capacité critique de géolocalisation, les ingénieurs du CERDEC (Command Communications-Electronics Research, Development and Engineering Center), une unité de l’Armée de Terre américaine, ont imaginé se fonder sur l’utilisation d’une micro-caméra. L’idée est ainsi de faire de la navigation visuelle : la caméra rapide capture les images haute définition (pouvant ainsi capturer les détails les plus fins) de l’ensemble des amers visuels (objets, points caractéristiques) lors du déplacement du combattant. Un système doit ensuite comparer ses images, afin de déterminer la direction et la vitesse de déplacement. Pour davantage de précision, le système est couplé à une mini-centrale inertielle (IMU : inertial measurement unit) comprenant un ensemble de capteurs dont des accéléromètres et des gyroscopes.

cerdec1

En termes de déploiement, une première version sera destinée (sans doute en 2022) à être disposée sur un véhicule, avant d’envisager une application au combattant débarqué. Une telle version embarquée a d’ailleurs été récemment testée sur une autoroute américaine (ce qui peut difficilement être considéré comme un test démonstratif, en particulier compte tenu de l’extrême continuité du terrain).

Cependant, une version « combattant débarqué » a également fait l’objet d’un test et a permis de maintenir la trajectoire initialement prévue, en l’absence de tout signal GPS. On peut d’ailleurs imaginer des retombées immédiates d’une telle technologie dans le domaine civil – qui, à l’inverse, a fourni des technologies de navigation visuelle, accompagnant l’essor des véhicules autonomes.

cerdec2

La limitation, en termes de performances, provient aujourd’hui de l’absence d’estimation de la profondeur. Pour ce faire, il serait nécessaire de déployer des caméras capables de vision stéréo (ce qui risque d’avoir un coût notamment en termes d’encombrement et de puissance électrique embarquée nécessaire).

D’autres alternatives sont en cours d’examen. Les mêmes ingénieurs du CERDEC imaginent ainsi pouvoir déployer des « pseudolites » : des pseudo-satellites, opérant à basse altitude, et permettant de diffuser un signal fort, difficile à brouiller.

cerdec4

Ces pseudolites peuvent opérer sur une plate-forme, une montagne, ou un avion volant à basse altitude. Ils comprennent un système de réception et un système de transmission : la réception est en fait un système de navigation (qui se connecte, lui, à un GPS), et un système de diffusion de sa position. Le schéma ci-dessous illustre le principe.

cerdec5

Indépendamment de ces technologie, on ne peut trop conseiller de maintenir le niveau de formation élémentaire de nos militaires : difficile en effet de brouiller une carte et une boussole!

 

planx3

Oui, je sais, je parle beaucoup des projets DARPA. Mais avec plus de 3 milliards de budget, il n’est pas étonnant que des projets ébouriffants voient le jour régulièrement. Celui-ci concerne la cyberdéfense, et s’appelle PLAN-X. Et il est pour l’instant doté de 125M$/an (depuis 2012).

L’idée est de disposer d’un outil permettant, en temps réel, une navigation dans le cyberespace, une visualisation interactive des données, et l’élaboration de plans graphiques d’opérations. Comme dans les meilleurs films de science-fiction, l’opérateur de PLAN-X peut visualiser les réseaux et, le cas échéant, les intrusions en temps réel.

planx1

L’outil est présenté par la DARPA comme un outil d’unification des systèmes de cyberattaque et de cyberdéfense, sous forme d’une interface facile d’utilisation pour les « hackers militaires américains » (je cite) et a vocation à fournir un partage de la situation tactique (situational awareness) du cyberespace d’opérations. Ouf.

planx4

PLAN-X permet d’explorer des réseaux visuellement, et de déclencher des plans d’opération (envoi d’une sonde, scan d’un réseau, recherche de cibles ou de vulnérabilités, etc…). L’utilisateur est littéralement « projeté » dans le cyberespace, par l’utilisation de techniques de visualisation de données immersives. Il s’agit réellement d’une extension des techniques de cartographie militaire au cyberespace : un opérateur peut ainsi donner une mission de défense d’un « périmètre virtuel clé » : serveurs, routeurs, passerelles, ou toute autre zone sensible du cyberespace. Vous trouverez ci-dessous une vidéo de présentation par le chef de projet de la DARPA Frank Pound assez longue (je vous conseille de regarder la partie démo vers 28 minutes).

Pour construire leur modèle de données, les développeurs de PLAN-X  se sont inspirés du modèle CybOX, un acronyme signifiant « Cyber Observable Expressions », disponible en suivant ce lien. Il s’agit d’un langage structuré permettant de représenter des évènements cyber-observables, par exemple la création d’une clé de registre, le trafic réseau parvenant à une adresse IP donnée, etc… Le système a été notamment développé par la société américaine MITRE. PLAN-X agrège nombre de ces techniques : ainsi des standards pour échanger des informations sur les menaces Cyber comme STIX ou TAXII, ou le langage de programmation visuelle SCRATCH permettant de construire graphiquement des plans d’action.

Le développement de PLAN-X a été confié à quelques géants comme Raytheon BBN et Northrop Grumman, mais de plus petites structures ont également été sollicitées. Ainsi, le système a été adapté à des lunettes de réalité virtuelle de type OCULUS RIFT avec l’aide de deux sociétés : Frog Design et Intific.

planx2

La démonstration permet de se projeter dans l’environnement virtuel du cyberespace en 3 dimensions, et de « tourner » autour des données (l’image ci-dessous, assez déformée, montre ce que voit l’opérateur à travers ses lunettes).

planx5

 Après avoir été testé lors des exercices CyberFLAG et CyberGUARD en juin dernier, le système est annoncé pour une mise en service opérationnelle en 2017. Le premier objectif est de permettre à la Cyber Mission Force (CMF) de conduire des opérations coordonnées dans le cyberespace, via cet outil immersif véritablement impressionnant. Un pas de plus vers un futur à la « Minority Report ».

ntu1

L’université de Nanyang (Nanyant Technology University ou NTU) à Singapour est, pour l’avoir visitée, un creuset d’innovation, avec plus de 33 000 étudiants et un classement au 13e niveau sur l’échelle mondiale. La preuve : les chercheurs du laboratoire VIRTUS de la NTU annoncent aujourd’hui avoir développé une puce SAR (Synthetic Aperture Radar – ou radar à ouverture synthétique) qui tient… sur un doigt et qui consommerait 75% de moins que les technologies conventionnelles, pour un coût de production 20x moindre.

Pour bien comprendre l’innovation, quelques précisions. Une caméra SAR coûte aujourd’hui 1 million de $ environ, pèse jusqu’à 200 kg, et consomme 1000W par heure. Il s’agit de dispositifs volumineux (jusqu’à 2m de longueur) destinés à équiper des aéronefs ou des satellites, mais capables, même en cas de couverture nuageuse ou de végétation dense, de détecter des objets de l’ordre du mètre, en utilisant une imagerie en bande X ou bande Ku (entre 8 et 12 GHz) – un petit rappel sur les bandes de fréquence utilisées dans le graphique ci-dessous.

ntu2

Les radars actuels SAR fonctionnent très bien, mais les contraintes d’encombrement et d’alimentation en énergie limitent considérablement leur emploi, notamment quand il s’agit de drones ou de véhicules autonomes légers. C’est là que l’on comprend toute l’innovation des chercheurs de la NTU : leur caméra SAR ne mesure que 2mmx3mm (ce qui, encapsulée dans un module, mène à une dimension du dispositif de 3cmx4cmx5cm) , ne pèse que 100g et ne nécessite que l’équivalent de l’alimentation d’un téléviseur LED, soit 200W/h. Et sa résolution lui permet de détecter des objets de 50cm à 11 km de hauteur. La puce, intégrée à une carte PC, apparaît ci-dessous en rouge.

ntu5

Les applications de l’innovation réalisée par la NTU vont de l’utilisation de SAR par des drones aériens aux véhicules autonomes terrestres, en passant par le développement de satellites d’imagerie plus petits et plus compacts : de l’ordre de 100 à 200kg en comparaison des satellites classiques d’imagerie dont le poids est plus proche de la tonne (ci-dessous).

ntu3

Evidemment, les candidats acquéreurs se bousculent. La NTU et l’équipe de VIRTUS dirigée par le Pr Zheng Yuanjin a déjà reçu des manifestations d’intérêt de SpaceX, Thales ou Panasonic. D’ailleurs, la puce doit être testée dans le cadre du programme satellitaire S4TIN dirigé conjointement par la NTU et Thales Alenia Space. L’exploitation commerciale devrait quant à elle intervenir d’ici 3 à 6 ans.