Archives de la catégorie ‘Optronique’

lm0

Ne vous fiez pas à l’image ci-dessus, il ne sera pas visible à l’œil nu. Mais Lockheed Martin a bel et bien développé un laser de combat miniaturisé, de 58kW, et s’apprête à le livrer à l’US Army. La course au déploiement d’armes à énergie dirigée sur le théâtre d’opérations va donc connaître une certaine accélération.

Nous en avions déjà parlé dans ce blog, mais un petit rappel ne me semble pas inutile. Les armements à énergie dirigée, dont les lasers HE (Haute Energie) tactiques sont dérivés, proviennent du besoin (en particulier du Pentagone) de disposer d’armes antimissiles, abondamment financées par différents programmes dans les dernières décennies. En particulier, l’Initiative de Défense Stratégique (IDS ou Starwars) lancée par Reagan en 1983, avait pour objectif de mettre à l’abri les USA d’une attaque nucléaire ennemie, via l’élaboration d’un vaste bouclier anti-missiles, utilisant notamment des lasers à haute puissance. L’IDS a été abandonnée en 1993, et les développements des armes laser se sont dès lors concentrés, en particulier aux USA mais pas uniquement, sur des objectifs tactiques, avec des lasers de puissance moyenne. Car les lasers qui émergent aujourd’hui sont les lasers à phase solide ou à fibre, avec un rayon d’action de l’ordre de 10 km maximum : Ce sont des lasers à vocation tactique.

lm2

Ces développements arrivent aujourd’hui à maturité pour certains d’entre eux, avec des essais d’armements laser tactiques réussis qui ont eu lieu récemment. En particulier, nous avions mentionné dans ce blog la destruction de drones depuis l’USS Ponce en novembre 2014 (laser de 30 kW – Système opérationnel dans le Golfe Persique), mais on peut également citer des essais US réussis de destruction d’obus de mortiers, les essais Rheinmetall positifs d’interception de drones et de mortiers en novembre 2011 (Rheinmetall a d’ailleurs présenté un système lors du récent salon IDEX 2017), ou encore le système Boeing CWLS (low cost) anti-drones, ou le programme israélien de lasers anti-mortiers.

Rheinmetall air defence systems Oerlikon High Energy Laser Gun on display at the defence and security exhibition DSEI at ExCeL, Woolwich, London, England, UK.

Rappelons également que la létalité d’un laser dépend à la fois de la puissance générée et de la qualité de focalisation du faisceau. Le niveau examiné aujourd’hui est donc toujours principalement de la classe 10 à 100kW. L’idée est de pouvoir détruire des drones, des missiles, des navires autonomes ou en essaim (pirates ou attaque terroriste) et éventuellement d’assurer une défense contre les mortiers ou autres projectiles d’artillerie. Peu voire pas de projets ont été conçus pour attaquer des cibles terrestres, du fait de la difficulté de perforer un blindage avec un faisceau laser.

C’est là que l’annonce de Lockheed Martin prend tout son sens aujourd’hui. Car on parle bien d’un laser miniaturisé à fibre d’une puissance de 58 et bientôt 60kW. Le constructeur annonce avoir miniaturisé suffisamment l’engin pour qu’il puisse être embarqué à bord d’un véhicule blindé. Et c’est bien la première fois qu’une telle puissance est annoncée sur le théâtre d’opérations, à partir d’un engin mobile.

Pour assurer une focalisation optimale du faisceau, Lockheed Martin a développé une technologie permettant de combiner et de faire converger les faisceaux de plusieurs lasers à fibre d’une puissance de 10kW chacun. Le concept avait d’ailleurs été également développé dans le cadre du projet EXCALIBUR de la DARPA (ci-dessous).

lm5

L’industriel annonce d’ailleurs que sa technologie est si précise qu’elle reviendrait à « toucher un ballon de volley au sommet de l’Empire State Building, à partir du pont de San Francisco » (comparaison curieuse mais bon). Pour assurer une telle précision, Lockheed Martin utilise une combinaison de systèmes de lentilles optiques, et d’algorithmique, afin d’ajuster la puissance du faisceau en corrigeant automatiquement les distorsions lors du trajet vers la cible.

Ce n’est pas la première fois que Lockheed fait la preuve de ses capacités dans le domaine : voir ci-dessous l’essai en 2015 du laser ATHENA, un laser plus volumineux et non mobile, d’une puissance de 30kw qui avait montré sa capacité à perforer le capot d’un engin situé à 1,5 km de distance.

lm4

Le nouveau laser de Lockheed Martin est constitué de modules de fibres optiques « dopées » avec des terres rares légères et lourdes (erbium, ytterbium, neodyme). Plus la fibre est longue, plus le laser est efficace, et comme cette dernière est flexible, on peut enrouler ces fibres comme des cordages dans un facteur de forme compact. Autre avantage : par rapport à un laser classique en phase solide, ce type de laser nécessite 50% moins d’énergie.

lm3

Un laser de cette classe est donc en théorie capable de neutraliser des drones, de petites embarcations, des cibles terrestres à 2km, ou des petits aéronefs ou missiles. Avec un avantage de taille : le coût d’un tir laser n’a rien à voir avec celui d’un missile. Le Général David Perkins avait ainsi récemment lancé une discussion sur l’utilisation par « un partenaire proche des Etats-Unis » ( !) d’un missile Patriot à 3M$ pour contrer un drone Quadcopter à 300$ avec une conclusion incontestable (je cite) : « d’un point de vue économique, je ne suis pas sûr que le ratio soit bon ». Pas faux, en effet.

Pour l’heure, cette nouvelle arme a donc pour fonction essentielle de neutraliser les menaces de types drones ou roquettes, et ce pour moins d’un dollar par tir (sans compter le coût d’acquisition du système).  Le nouveau laser sera bientôt livré au US Army Space and Missile Defense Command/Army Forces Strategic Command, situé à Huntsville, Alabama. L’ère du combat laser a donc bel et bien commencé.

 

dove2

On les appelle les « colombes » (Doves en anglais) mais ce sont de drôles de volatiles. Ce sont les 88 satellites – oui, 88! – qui vont partir en orbite aujourd’hui, à bord d’une fusée de type PSLV (Polar Satellite Lauch Vehicle) décollant du centre indien Satish Dhawan Space Center.

Mettre 88 satellites dans une fusée, cela donne une idée de la taille de chaque objet : 4,7 kg seulement par satellite, chacun occupant un volume de 10x10x30 cm. Ce sont des satellites de type CubeSat, capables d’observer la Terre en multispectral avec une résolution de 3 à 5m. Chaque satellite réalise une orbite complète en 90 min, et outre des caméras d’imagerie, dispose d’une caméra stellaire pour un positionnement fin de l’image. Les concepteurs sont même allés jusqu’à décorer chaque satellite par un « artist in residence » qui a réalisé des sérigraphies laser ( !).

dov6

Cette approche a été développée par la société privée Planet, qui n’en est pas à son coup d’essai, puisque la constellation est déjà partiellement en orbite : plus de 20 satellites Dove ont déjà été déployés, à une altitude de 400km. Regardez cette vidéo impressionnante du déploiement de 2 satellites Dove à partir de l’ISS (station spatiale internationale).

La société Planet dispose en tout de 55 micro-satellites déjà opérationnels. Mais aujourd’hui, on parle bien du déploiement de la plus grande flotte de satellites jamais effectué.

L’idée derrière la constellation des Doves est d’utiliser une ligne de satellites connectés comme un scanner pour photographier la surface de la Terre. Ils interagissent entre eux, mais également avec d’autres satellites – nous y reviendrons.

dove3

Evidemment, outre le fait de concevoir ses propres satellites, Planet –  qui a récemment levé 183 millions de $ de capital – développe aussi ses propres logiciels : un logiciel de gestion de la flotte satellitaire automatique (ce n’est pas si évident de gérer plus de 100 satellites en orbite dans la même constellation) – voir ci-dessous:

dove5

La société a également développé un « pipeline » de traitement, une plate-forme complète permettant  une automatisation du processus d’imagerie.

dove6

Mais Planet ne s’arrête pas là puisqu’elle vient d’acquérir la société TerraBella (en la rachetant à Google !), une société qui opère sept satellites très complémentaires des Doves, puisque chacun dispose d’une résolution 4 à 6 fois supérieure. De quoi former un système de surveillance impressionnant.

Car tout cela, finalement, a pour objectif développer la plate-forme de surveillance automatique de la Terre la plus performante et la plus simple d’emploi jamais conçue. Son principe de fonctionnement est finalement simple. Les Doves réalisent un premier scanner, et le réactualisent à chaque orbite. Si un changement est détecté, alors l’un des satellites Terra Bella est activé et braqué sur la zone d’intérêt. Cela peut être une catastrophe naturelle, une modification des zones agricoles, mais aussi la présence de véhicules blindés ou de navires de guerre dans une zone, par exemple. Ou l’observation de l’évolution de la construction d’une piste, comme dans cette photo de l’île  Fiery Cross dans l’archipel disputé des Spratleys.

dove1

Même si les Doves ne sont pas déployés depuis longtemps, ils peuvent analyser des changements sur des périodes plus longues, car Planet a racheté en 2015 la société BlackBridge qui détient les données d’observation issues de l’imagerie satellitaire Landsat 8 et Sentinel 2. Ces données sont combinées au sein de la même plateforme. En tout, voici les données disponibles via Planet :

  • PlanetScope: Bandes RGB et NIR (proche infrarouge) (3.7m de résolution), Constellation Dove
  • RapidEye: Bandes RGB, NIR et red edge – bordure rouge (6.5m de résolution), Constellation RapidEye
  • Sentinel-2: 13 bandes spectrales– RGB et NIR bands (10m de résolution); six bandes red edge et infrarouges à ondes courtes (20m de résolution); trois bandes de correction atmosphérique (60m de résolution)
  • Landsat 8: 11 bandes spectrales – Bande panchromatique (15m de résolution); 8 RGB, NIR, IR à ondes courtes, and correction atmosphérique (20m de résolution); 2 bandes IR thermique (100m de résolution)

Planet devient donc un opérateur très complet, capable de détecter toute modification dans une zone quelconque (ou presque) sur la Terre. Et avec un contrat adéquat, en théorie, toute organisation peut utiliser sa plate-forme pour réaliser des observations performantes.

On voit donc apparaître un opérateur privé qui devient capable de détenir des technologies jusqu’alors réservées aux états. On peut presque dire que l’imagerie satellitaire devient une technologie dite nivelante, accessible en théorie au plus grand nombre.

Car si le lancement d’aujourd’hui est un succès (le dernier lancement de 23 Doves fut un échec majeur avec l’explosion du lanceur, comme quoi il ne s’agit pas d’un sport de masse), de tels investissements montrent que Planet cible bien une offre large, destinée à un grand nombre de clients. Il conviendra donc de suivre la mise en place des garde-fous nécessaires au maintien d’un certain contrôle, dans un domaine qui demeure sensible.

 

lens5

Bon, ce n’est pas pour tout de suite, mais puisqu’on peut faire de temps en temps de la prospective à plus de 30 ans, je m’attarde un instant sur cette invention digne des meilleurs films de science-fiction. Nous la devons à la société BAE, qui travaille sur un projet baptisé LDAL pour « Laser Developed Atmospheric Lens », ce qu’on pourrait traduire par lentille atmosphérique créée par focalisation laser.

Cette invention vise à ioniser l’atmosphère au moyen d’une impulsion laser afin de créer un « bouclier » permettant de protéger le sol contre les effets d’une arme laser à énergie dirigée, d’utiliser cette « lentille » pour de l’espionnage ou de la reconnaissance, ou encore de constituer un mirage optique pour leurrer l’adversaire. Délire d’un ingénieur fana de science-fiction ? Non, c’est sérieux.

lens1

Le concept repose sur un effet physique dit Effet Kerr. Pour faire simple, voire simpliste pour les puristes, le laser à impulsion braqué sur l’atmosphère ionise l’air; à haute puissance, l’indice de réfraction de l’air dépend de l’intensité laser incidente (il y a même une formule, mais je ne veux pas dégoûter les lecteurs). Le profil d’intensité dans le faisceau laser n’étant pas uniforme, l’effet Kerr génère un profil d’indice de réfraction qui se comporte comme une lentille convergente ou « lentille de Kerr » dont la distance focale dépend de l’intensité.

On va faire simple : une fois ionisée, la portion de l’atmosphère concernée est transformée temporairement en une structure proche d’une lentille, permettant soit d’amplifier, soit de dévier le trajet des ondes électromagnétiques (ondes lumineuses, mais aussi ondes radio). Le phénomène est évidemment réversible. C’est un peu ce que l’on voit dans le cas d’un mirage, où l’air chaud qui monte réfracte la lumière et permet de dévier le trajet des rayons lumineux.

lens2

L’idée de BAE, c’est d’utiliser ce phénomène afin de protéger les troupes au sol, les véhicules, navires ou même aéronefs d’une attaque par l’emploi d’une arme à énergie dirigée (laser à haute énergie par exemple). Ou de déclencher un laser à impulsion en haute altitude, et provoquer la création d’une lentille permettant d’observer les mouvements ennemis en amplifiant la lumière venant de la zone située en-dessous de la lentille. La vidéo ci-après présente le projet.

Et les concepteurs ne sont pas des doux rêveurs puisqu’ils travaillent avec le Science and Technology Facilities Council britannique, le laboratoire Rutherford Appleton et la société LumOptica.

Evidemment, ce n’est pas pour demain : un tel système, dans sa pleine capacité opérationnelle, est envisageable dans un délai d’une cinquantaine d’années. Mais nul doute que ce développement pourra être accéléré si les armes à énergie dirigée se démocratisent au point de devenir une menace réelle et prégnante. Ou si quelqu’un s’avise de construire l’Etoile Noire (ou blonde, sic), on ne sait jamais…

nvg4

« Regarder au travers de tubes de papier-toilette en carton » : c’est comme cela que certains désignent l’inconfort d’utiliser des lunettes de vision nocturne (dont l’acronyme le plus répandu est NVG pour Night Vision Goggles). Malgré les récents progrès apportés notamment par les lunettes quadri-tubes panoramiques rendues célèbres par le raid contre Ben Laden, les NVG classiques sont souvent trop imposantes, trop lourdes et insuffisamment performantes.

nvg3

Cet encombrement est dû à la technologie elle-même. En effet, pour développer un dispositif de vision nocturne, il est nécessaire d’amplifier le peu de lumière disponible, et de le rendre visible à l’utilisateur. Pour ce faire, une lentille récupère tous les photons disponibles y compris dans le proche infrarouge et les convertit en électrons à l’aide d’une photocathode. Ces électrons sont ensuite envoyés dans un tube sous vide au travers de plaques microperforées et subissent une amplification ; en gros, un électron génère l’émission d’autres électrons par réaction en chaine (cascaded secondary emission, en anglais). On atteint des facteurs d’amplification importants, de l’ordre de 50 000 à 90 000x. A l’extrémité du tube, les vagues d’électrons amplifiés frappent un écran au phosphore qui réagit en émettant la lumière verte caractéristique de la vision nocturne, et permet donc de voir la lumière réfléchie dans l’obscurité.

nvg1

Il s’agit donc d’un dispositif assez complexe et surtout nécessitant un facteur de forme important, en termes de poids et d’encombrement, et ce d’autant plus qu’il nécessite un générateur électrique puissant.

Des chercheurs de l’Université ANU (Australian National University) se sont attaqués à ce problème et viennent de publier des résultats intéressants permettant d’envisager des appareils plus compacts et plus faciles d’emploi, en utilisant les nanotechnologies.

nvg8

L’idée est d’utiliser des nano-antennes, à base d’arséniure d’aluminium et de gallium, 500 fois plus fines qu’un cheveu et capables de réaliser l’amplification des photons sans tube à vide. Le processus repose sur le phénomène dit de génération d’harmoniques de deuxième ordre (SHG pour Second Harmonic Generation). Là encore, je ne fais pas un cours de physique – j’en serais d’ailleurs incapable – mais j’essaie de simplifier au maximum. Ces nanocristaux d’arséniure de gallium ont en effet des propriétés non linéaires : ils doublent la fréquence de la lumière qui les traverse. Pour faire simple, ces cristaux sont capables de convertir la lumière infrarouge en lumière visible. En gros, ils changent la forme, la couleur et la forme de la lumière.

nvg6

L’intérêt est de nécessiter très peu d’énergie, et surtout de n’avoir besoin que d’une couche de nano-cristaux qui aurait ainsi la propriété presque magique de convertir et d’amplifier la lumière. Une telle couche pourrait être apposée sous forme de film, permettant ainsi de concevoir des lunettes à vision nocturne guère plus épaisses qu’une paire de lunettes de soleil. On peut également imaginer un pare-brise de véhicule conférant au pilote la capacité à conduire dans l’obscurité.

Aujourd’hui, les chercheurs de l’ANU ont montré qu’en utilisant ces nanocristaux, ils étaient capables de convertir un laser infrarouge en lumière visible. Pour aller plus loin, il faudra démontrer la capacité à traiter différentes fréquences – ce qui pourra être réalisé en combinant différentes tailles de nanocristaux.

nvg7

Les inventeurs espèrent développer (avec l’aide de la DARPA) un prototype d’ici 3 ans – en parallèle, d’autres voies existent comme le développement de lentilles de contacts à vision thermique, à base de graphène (voir cet article). Il est donc plus que probable que le fantassin de 2025 pourra disposer de systèmes impressionnants, et performants (en termes de puissance mais aussi de légèreté) conçus grâce à la démocratisation des nanotechnologies.

20161123_115905_resized

Vous êtes quelques-uns à reprocher (gentiment) à ce blog une certaine orientation vers la recherche américaine. Ce n’est pas une volonté, mais une conséquence (1) des conséquents budgets américains en termes de R&D de défense et (2) d’une maîtrise certaine de la communication par nos voisins outre-Atlantique (les amenant d’ailleurs parfois à communiquer avec un certain talent des programmes politiques n’ayant pas grand-chose à voir avec la réalité, je dis ça comme ça….).

Une fois par an, la DGA organise son Forum Innovation. C’était hier et aujourd’hui, sur le site de Palaiseau, et pour le coup, cela amène une réelle volonté active de communication de la part à la fois de institutionnels, mais aussi des laboratoires et des petites entreprises. J’ai donc fait mon marché de l’innovation, en voici un premier résultat.

20161123_115841_resized

Le projet s’appelle AXONE. Il s’agit d’un système neuronal artificiel capable de réaliser des tâches d’analyse de scène en temps réel. Il s’agit du résultat d’un projet RAPID (Régime d’Appui pour l’Innovation Duale – voir la page de référence ici ) associant l’Institut Saint-Louis, la société Spikenet Technologies et la société GlobalSensing Technologies.

L’idée est d’utiliser un certain type de réseaux de neurones artificiels, les neurones à Spike, pour procéder à l’analyse en temps réel d’une scène visuelle, et de les embarquer sur des composants dédiés (SoC ou Systems on Chips). Je vais essayer d’expliquer simplement le concept – et ce, d’autant plus que j’avais travaillé il y a plus de vingt ans avec le Pr Simon Thorpe, créateur de la technologie SpikeNet (il me semble que j’ai même commis un article sur le sujet…).

20161123_115838_resized

Pour faire simple : en neurobiologie, on se pose depuis longtemps la question de la nature du codage de l’information par les neurones. La théorie générale est fondée sur un codage fréquentiel de l’information (fréquence des décharges électriques). Mais il existe une autre théorie reposant sur un codage temporel de l’information : le codage serait fait par des impulsions (spikes) ou plus précisément par les instants d’émission des impulsions. On prend donc en compte l’aspect temporel. Un réseau artificiel de neurones à spike est conçu pour simuler des réseaux qui contiennent un nombre très grand de neurones à décharge asynchrone et qui apprennent par codage des séquences de décharge. On appelle cela le codage par rangs (évidemment, je simplifie). Cette technologie est très utilisée pour la reconnaissance de formes, et en particulier le traitement d’images.

L’intérêt de cette technologie est que le temps d’apprentissage est très rapide, et très tolérant (aux conditions d’illumination, au bruit, aux contrastes…). Dans le projet AXONE, les participants ont ainsi pu implanter un réseau de neurones à spike sur une carte dédiée (ce que l’on appelle un processeur FPGA). En gros, il s’agit d’un processeur reconfigurable, comportant 1024 neurones artificiels, et conçue par la société GlobalSensing Technologies. Avec SpikeNet et l’ISL, et en 24 mois, les acteurs du projet AXONE ont réalisé une caméra reconfigurable générant des Spikes en lieu et place des images. Le travail a ainsi consisté (outre évidemment l’algorithmique sous-jacente) à intégrer ce réseau de neurones artificiel avec un capteur, au sein d’une caméra autonome, et de développer la librairie logicielle pour la mise en œuvre de ces composants.

20161123_115903_resized

Et le résultat est impressionnant. Lors de la présentation au Forum DGA, on a pu ainsi visualiser la reconnaissance de visages en temps réel (chaque visage est reconnu, en temps réel, avec sa signature unique). Les applications sont nombreuses : sécurité et surveillance de sites sensibles avec levée de doute par la caméra elle-même, capteurs abandonnés capables de réaliser une analyse in situ (voir mon article sur l’IA embarquée), et évidemment, augmentation de la capacité de reconnaissance de forme en robotique et en particulier pour les drones.

20161123_115855_resized

J’ajoute que la DGA a pris une initiative originale : celle de faire parrainer certaines innovations par des personnalités de l’institution. En l’occurrence, AXONE est parrainée par l’excellent Lionel MORIN, directeur du CATOD (Centre d’Analyse Technico-Opérationnelle de Défense) – ci-dessous.

20161123_123107_hdr_resized

Une technologie à suivre, et une excellente illustration des capacités d’innovation de l’écosystème français de la Défense – je publierai d’ailleurs bientôt d’autres articles suite à ma visite sur le forum Innovation.

ukraine1

Si vous vous en souvenez, j’avais déjà parlé de ces projets de blindage « transparent » : l’idée de munir un chef d’engin de lunettes de réalité virtuelle afin de pouvoir disposer d’une vue de ce qui l’entoure, simplement en regardant autour de lui (voir cet article).

L’idée du blindage transparent n’est donc pas nouvelle. Il y a le véritable blindage transparent réalisé à partir de matériaux comme la spinelle (voir également cet article), mais surtout l’idée d’utiliser des dispositifs de réalité virtuelle qui agrègent l’information visuelle ou thermique fournie par les capteurs externes, et permettent au regard du chef de « percer le blindage ». La société Finmeccanica avait d’ailleurs démontré un tel prototype pour un pilote d’hélicoptère lors du salon du Bourget 2013. Et l’armée norvégienne avait réalisé une expérimentation en utilisant le casque de réalité virtuelle Oculus Rift dans le même but (image ci-dessous).

article-2621476-1D9D205400000578-542_634x356

L’idée refait aujourd’hui surface, à la fois stimulée par l’émergence de nouvelles technologies de casques à réalité virtuelle et augmentée, et sous l’impulsion d’opérationnels…ukrainiens. Car une start-up de Kiev, Limpid Armor, vient de remporter une bourse de Microsoft pour développer une technologie de casque à réalité augmentée fondée sur la technologie Hololens.

ukraine3

Un petit mot sur cette technologie dont on parle depuis au moins deux ans. Il s’agit d’une technologie développée par Microsoft de réalité augmentée : des lunettes semi-transparentes, capables d’injecter dans la vision de l’utilisateur des images « holographiques » qui viennent se superposer à la vision de l’environnement de ce dernier. Les lunettes pèsent environ 400g et offrent un champ de vision de 120° par 120°. Mais surtout, avec une qualité de projection d’hologramme 3D assez bluffante. En fait, Hololens est un ordinateur en soi, et permet de percevoir des projections holographiques extrêmement brillantes, même dans un environnement lumineux.

La vidéo institutionnelle de promotion d’Hololens est présentée ci-dessous.

Bon, à la différence de ce que l’on voit dans la démo, le champ visuel est très – trop – réduit. En fait, il conviendrait d’avoir du 180° par 180° pour obtenir une qualité de projection réellement satisfaisante. Cela n’est néanmoins pas un obstacle pour le projet de Limpid Armor. Cette société a donc développé un concept alliant la technologie Hololens avec un réseau de caméras situées à l’extérieur du véhicule. Le système est baptisé CRS pour Circular Review System. Il fusionne les informations des caméras en une image composite, et serait même capable de réaliser du « blue force tracking » en réalité mixte : désigner au chef d’engin les forces alliées en superposant un identifiant sur le terrain réel. L’idée serait également d’aller vers la désignation au chef des cibles ou unités ennemies, directement dans son champ de vision.

ukraine2

L’idée est assez séduisante, même si le concept précédent, utilisant un casque de réalité virtuelle et non mixte (l’Oculus Rift) a très vite montré des limites opérationnelles : fatigue des yeux des opérateurs, surcharge informationnelle, mais surtout angoisse générée par l’impression de « ne pas être protégé », le blindage devenant transparent.

De telles innovations, même si elles paraissent séduisantes pour un technophile, doivent donc toujours être examinées par le prisme opérationnel. En particulier, ce cas d’école montre qu’il est nécessaire et même indispensable de prendre en compte les aspects liés aux facteurs humains, physiologiques comme psychologiques. La technologie ne fait pas tout. En tout cas, tant que les chars seront commandés par des hommes.

mov1

Ce n’est pas la première fois que nous parlons ici des caméras thermiques intelligentes. Mais ici, il s’agit d’une réelle convergence entre deux technologies : la vision thermique, et l’interprétation automatique d’images par vision artificielle. Cette convergence est matérialisée par l’alliance entre deux références du domaine : la société FLIR bien connue pour ses technologies de vision thermique par infrarouge, et la société MOVIDIUS, spécialiste de la vision artificielle embarquée.

Movidius est une société californienne qui développe des solutions dites de VPU pour Vision Processor Unit ; son architecture baptisée Myriad 2 est en fait un processeur spécialisé dans la vision artificielle embarquée. Il se compose d’un processeur DSP de traitement du signal permettant d’exécuter 150 milliards d’opérations par seconde, en ne consommant que 1,2 watts.

mov2

Ces deux sociétés viennent d’annoncer le fruit de leur collaboration : la caméra BOSON, une caméra thermique embarquant le Myriad 2 (possédant 12 cœurs de calcul programmables) et permettant d’implémenter in situ des algorithmes de traitement avancé de l’image, filtrage du bruit, et analyse d’objets. La caméra BOSON intègre les algorithmes de base, et l’utilisateur dispose de puissance de calcul et de mémoire disponibles pour implémenter ses propres traitements.

Le résultat ? Une caméra thermique miniaturisée, de faible consommation, et embarquant une intelligence artificielle permettant le traitement automatisé et en temps réel des images. Il devient ainsi possible de réaliser de la détection et du suivi d’images, de la détection de geste ou de mouvement, ou d’extraire des caractéristiques de haut niveau permettant d’implémenter une identification automatique de cible d’intérêt et un traitement de l’image correspondante.

Cela permet de réaliser l’essentiel des opérations au sein du capteur lui-même : toutes les opérations sont effectuées localement, sans devoir surcharger la bande passante du réseau, ni devoir transmettre des informations en vue d’en faire l’analyse sur un serveur distant. Une économie de temps, un gain de sécurité et d’efficacité : on peut ainsi imaginer qu’un drone aérien soit capable de réaliser l’interprétation automatique et immédiate des images qu’il capte, sans devoir faire appel à une liaison vers un segment sol.

Une caméra d’ailleurs facilement embarquée par un drone : la caméra BOSON est miniaturisée (21x21x11mm sans l’objectif), ne pèse que 7.5g pour l’unité de traitement, est possède une vision dans le spectre 7.5 µm – 13.5 µm. En revanche, elle est classée ITAR et nécessite donc à ce titre une autorisation d’export par les autorités américaines.

mov3

Il s’agit là d’une véritable révolution amenée, je le pense, à se généraliser : l’intégration de capacités de haut niveau (ici la vision artificielle) dans le senseur lui-même, permettant ainsi de conserver localement des capacités de traitement élaborées sans devoir transmettre l’information à un serveur distant.

Les applications vont de l’analyse d’images de surveillance, à la navigation, ou  la vision artificielle pour drones et robots,… Les grands du domaines ne s’y trompent pas : la société MOVIDIUS a été récemment sélectionnée par …Google, afin d’intégrer des capacités d’apprentissage dans les objets connectés. L’avènement des capteurs intelligents…