Articles Tagués ‘vision’

20161123_115905_resized

Vous êtes quelques-uns à reprocher (gentiment) à ce blog une certaine orientation vers la recherche américaine. Ce n’est pas une volonté, mais une conséquence (1) des conséquents budgets américains en termes de R&D de défense et (2) d’une maîtrise certaine de la communication par nos voisins outre-Atlantique (les amenant d’ailleurs parfois à communiquer avec un certain talent des programmes politiques n’ayant pas grand-chose à voir avec la réalité, je dis ça comme ça….).

Une fois par an, la DGA organise son Forum Innovation. C’était hier et aujourd’hui, sur le site de Palaiseau, et pour le coup, cela amène une réelle volonté active de communication de la part à la fois de institutionnels, mais aussi des laboratoires et des petites entreprises. J’ai donc fait mon marché de l’innovation, en voici un premier résultat.

20161123_115841_resized

Le projet s’appelle AXONE. Il s’agit d’un système neuronal artificiel capable de réaliser des tâches d’analyse de scène en temps réel. Il s’agit du résultat d’un projet RAPID (Régime d’Appui pour l’Innovation Duale – voir la page de référence ici ) associant l’Institut Saint-Louis, la société Spikenet Technologies et la société GlobalSensing Technologies.

L’idée est d’utiliser un certain type de réseaux de neurones artificiels, les neurones à Spike, pour procéder à l’analyse en temps réel d’une scène visuelle, et de les embarquer sur des composants dédiés (SoC ou Systems on Chips). Je vais essayer d’expliquer simplement le concept – et ce, d’autant plus que j’avais travaillé il y a plus de vingt ans avec le Pr Simon Thorpe, créateur de la technologie SpikeNet (il me semble que j’ai même commis un article sur le sujet…).

20161123_115838_resized

Pour faire simple : en neurobiologie, on se pose depuis longtemps la question de la nature du codage de l’information par les neurones. La théorie générale est fondée sur un codage fréquentiel de l’information (fréquence des décharges électriques). Mais il existe une autre théorie reposant sur un codage temporel de l’information : le codage serait fait par des impulsions (spikes) ou plus précisément par les instants d’émission des impulsions. On prend donc en compte l’aspect temporel. Un réseau artificiel de neurones à spike est conçu pour simuler des réseaux qui contiennent un nombre très grand de neurones à décharge asynchrone et qui apprennent par codage des séquences de décharge. On appelle cela le codage par rangs (évidemment, je simplifie). Cette technologie est très utilisée pour la reconnaissance de formes, et en particulier le traitement d’images.

L’intérêt de cette technologie est que le temps d’apprentissage est très rapide, et très tolérant (aux conditions d’illumination, au bruit, aux contrastes…). Dans le projet AXONE, les participants ont ainsi pu implanter un réseau de neurones à spike sur une carte dédiée (ce que l’on appelle un processeur FPGA). En gros, il s’agit d’un processeur reconfigurable, comportant 1024 neurones artificiels, et conçue par la société GlobalSensing Technologies. Avec SpikeNet et l’ISL, et en 24 mois, les acteurs du projet AXONE ont réalisé une caméra reconfigurable générant des Spikes en lieu et place des images. Le travail a ainsi consisté (outre évidemment l’algorithmique sous-jacente) à intégrer ce réseau de neurones artificiel avec un capteur, au sein d’une caméra autonome, et de développer la librairie logicielle pour la mise en œuvre de ces composants.

20161123_115903_resized

Et le résultat est impressionnant. Lors de la présentation au Forum DGA, on a pu ainsi visualiser la reconnaissance de visages en temps réel (chaque visage est reconnu, en temps réel, avec sa signature unique). Les applications sont nombreuses : sécurité et surveillance de sites sensibles avec levée de doute par la caméra elle-même, capteurs abandonnés capables de réaliser une analyse in situ (voir mon article sur l’IA embarquée), et évidemment, augmentation de la capacité de reconnaissance de forme en robotique et en particulier pour les drones.

20161123_115855_resized

J’ajoute que la DGA a pris une initiative originale : celle de faire parrainer certaines innovations par des personnalités de l’institution. En l’occurrence, AXONE est parrainée par l’excellent Lionel MORIN, directeur du CATOD (Centre d’Analyse Technico-Opérationnelle de Défense) – ci-dessous.

20161123_123107_hdr_resized

Une technologie à suivre, et une excellente illustration des capacités d’innovation de l’écosystème français de la Défense – je publierai d’ailleurs bientôt d’autres articles suite à ma visite sur le forum Innovation.

para4

Le largage de précision a pour objectif de livrer par parachute de l’équipement, des colis, des munitions, à une hauteur variant entre 125m (400 pieds) et 7600m (25 000 pieds environ) d’altitude, en fonction de la méthode choisie : utilisation de la gravité, ou éjection de la charge dans le second cas. Il a pour objectif de renforcer la logistique de théâtre, de ravitailler des garnisons ou des unités isolées en environnement hostile.

Mais au-delà de l’éjection, un second problème consiste à atterrir avec précision à l’emplacement visé (en particulier lorsque l’aérolargage est effectué au profit des Forces Spéciales). En ce cas, des parachutes guidés de type « aile » (parafoils) peuvent être utilisés, et pour permettre un guidage optimal, des solutions de « parachute intelligent » ont été développées.

para1

Le plus connu est le système américain JPADS, pour « joint precision airdrop system », en service depuis 2006 en Afghanistan. Il s’agit d’une famille comprenant principalement 4 systèmes autonomes, guidés grâce à un GPS couplé à des servomoteurs directement reliés aux suspentes, et largués à des altitudes allant jusqu’à 25 000 pieds. Ils permettent de guider une charge au sol, avec une précision de l’ordre de 50 mètres. D’autres solutions du même type existent comme le Paralander développé par Cassidian, le DragonFly, l’Onyx ou des solutions de type parafoils motorisés.

Mais le GPS est susceptible d’être brouillé ou perturbé soit par des systèmes de guerre électronique, soit même par des solutions bon marché et compactes, accessibles au grand public. Pour contrer cette menace, les développeurs du JPADS l’ont doté d’un nouveau système de guidage qui utilise la vision artificielle.

L’idée est ainsi de munir le système de guidage d’un boitier AGU (aerial guidance unit) muni d’une caméra qui regarde le sol, et compare l’image optique avec une imagerie satellitaire entrée en préparation de mission dans la base de données de l’AGU. En lieu et place du GPS, le système utilise des indices visuels pour réaligner le guidage en fonction des données optiques recueillies.

para2

Evidemment, en cas de largage nocturne, ou de couche nuageuse importante, la solution se révèle limitée. L’US Army (Army’s Natick Soldier Research, Development and Engineering Center ou NSRDEC) travaille donc aujourd’hui avec la société Draper, conceptrice du JPADS, pour surmonter ces difficultés, en utilisant des capteurs infrarouges, ou en utilisant une combinaison de systèmes de guidage visuels/GPS.

para3

Les premiers tests réalisés (photos ci-dessus) ont néanmoins permis de confirmer l’intérêt de l’approche, avec une précision satisfaisante de largage, alors qu’aucune donnée GPS (et en particulier pas de données sur la position initiale de l’avion) n’a été utilisée. La même approche, si elle se révèle suffisamment robuste, pourrait être à terme utilisée pour le guidage de drones, ou le largage HALO (haute altitude, basse ouverture) de chuteurs opérationnels.

gra4

Ou plus exactement, par l’utilisation de MEMS à base de graphène ; une phrase qui nécessite quelques explications. En premier lieu, qu’est-ce que le graphène ? Il s’agit de cristal de carbone pur bidimensionnel (en gros une monocouche de carbone) obtenu soit directement à partir du graphite, en le « pelant » pour séparer les couches, soit par synthèse, par exemple en faisant chauffer à plus de 1000 degrés un catalyseur sur lequel un gaz d’hydrocarbure va se dissocier et déposer des atomes de carbone.

Le graphène est un matériau conducteur qui possède de très nombreux intérêts (des processeurs à base de graphène devraient d’ailleurs bientôt voir le jour) – parmi ceux-ci, un coefficient Seebeck unique (décidément, cet article devient de moins en moins lisible). En gros, un pouvoir thermoélectrique remarquable : un senseur à base de graphène est sensible à la totalité du spectre infrarouge.

gra1

Des chercheurs du MIT ont donc annoncé avoir combiné un capteur thermoélectrique à base de graphène avec un MEMS (micro système électromécanique) composé d’une membrane de nitrure de silicium. Le résultat : un capteur capable de détecter les températures du corps humain, dans une pièce à température normale (pour les connaisseurs du domaine, on obtient des réponses de 7 à 9 V/W, pour une longueur d’onde de 10.6 microns et une constante de temps de 23ms). Bon, je ne rentre vraiment pas dans une explication exhaustive: vous trouverez (en payant), l’article ici.

gra2

Il s’agit d’une innovation qui devrait révolutionner le domaine de la vision thermique. Car jusqu’ici, pour détecter des signatures thermiques à température normale, les senseurs devaient être refroidis par cryogénie, afin de supprimer le bruit de fond du aux radiations thermiques de la pièce.

Les capteurs étaient donc chers et volumineux, afin d’intégrer les composants nécessaires pour le refroidissement. Avec cette nouvelle technologie, sans rentrer dans les détails, il devient possible de développer un système de vision thermique très compact, voire flexible et transparent. De là à imaginer des «lunettes thermiques » ou même des « lentilles thermiques », il n’y a qu’un pas. Un pas d’ailleurs déjà franchis par une équipe de recherche de l’université du Michigan qui, il y a un an, avait présenté un prototype d’une lentille de contact infrarouge, toutefois moins sensible ‘voir photo ci-dessous) que le détecteur construit par le MIT. Cette sensibilité était le seul vrai obstacle au développement de lentilles thermiques. Le MIT annonce travailler maintenant sur un senseur fondé sur une seule couche de graphène.

gra3

Maintenant que la faisabilité est avérée, nul doute que dans le futur proche, des nouveaux senseurs infrarouges portables et haute définition verront le jour, et ce pour un coût raisonnable. Entre les processeurs, les gilets pare-balle, les écrans et maintenant la vision thermique, le 21e siècle est bien l’ère du graphène.

night1

La filiale américaine de la société BAE systems a développé un nouveau système permettant à un utilisateur de disposer d’une vision à la fois nocturne et thermique. Le dispositif permet de pallier les inconvénients liés, par exemple, à la présence de pluie, de brume ou de fumée. Jusqu’alors réservée aux jumelles thermiques, ou aux systèmes d’armes, le dispositif permet de fusionner les capacités de vision et de ciblage (« targeting ») sans nécessité pour l’utilisateur de changer de dispositif en opérations.

night4

Destiné à une utilisation opérationnelle en 2017, il s’agit d’un dispositif reposant sur une interface vidéo sans fil: l’image est directement transmise aux lunettes de l’utilisateur. BAE a particulièrement travaillé sur le poids du dispositif, et des batteries.

night3

L’intérêt opérationnel (outre la vision tout temps) est de pouvoir réaliser une visée sans nécessité de quitter la cible des yeux, ni d’amener l’arme au niveau du regard, puisque les images de la visée de l’arme peuvent être, via l’interface sans fil, directement transmises à l’utilisateur via ses lunettes, sans aucune transition.

night2

Le système est en cours de développement, mais a été réalisé en collaboration avec l’U.S Army Night Vision and Electronic Sensors Directorate – il a fait l’objet d’un contrat poétiquement intitulé « Enhanced Night Vision Goggle III and Family of Weapon Sight-Individual » doté de 434 millions de dollars sur 5 ans (tout de même !).