Archives de la catégorie ‘C4ISR et CMI’

USS Independence

Je commence par souhaiter à tous mes lecteurs une excellente année 2018, avec une pensée spéciale et sincère pour tous nos soldats en opérations, en OPEX comme sur le territoire national. L’innovation technologique de défense est surtout et d’abord au service des hommes et femmes qui nous protègent. Merci à elles et eux.

Pour débuter l’année, une annonce de nos alliés américains, qui concerne le LCS, ou Littoral Combat Ship. Pour mémoire, le LCS est un programme qui désigne les nouvelles frégates furtives américaines, de différentes classes (Classe Independence de type trimaran, Classe Freedom monocoque) dont environ dix exemplaires ont été construits à ce jour. Il s’agit de navires destinés, comme leur nom l’indique, à être engagés en zone littorale pour traiter en particulier des menaces asymétriques.

140423-N-VD564-014

Ces frégates ne sont pas surarmées (et le programme est d’ailleurs sous le feu de nombreuses critiques aux USA notamment pour certains doutes concernant leur survivabilité au combat); elles comptent plusieurs variantes (chasse de mines, lutte anti-sous-marine, module amphibie, traitement des menaces de surface). Elles sont conçues pour intervenir au sein d’une force constituée de plusieurs LCS mais aussi de navires plus puissants (destroyers) pour assurer leur protection, et d’une bulle de renseignement (AWACS, drones, surveillance satellitaire). Tout ceci pour dire que le concept de Littoral Combat Ship est en réalité indissociable du concept de guerre infocentrée (NCW ou Network Centric Warfare). Les frégates LCS n’interviennent donc jamais seules en opérations.

lcs5

Ce concept de guerre infocentrée se nomme (dans l’US Navy) le Naval Fires Network et repose sur le système baptisé Cooperative Engagement Capability, (CEC) un réseau de capteurs et d’effecteurs permettant la fusion de données de capteurs, le contrôle des feux, la tenue d’une situation tactique partagée en temps réel. Du classique donc, sauf que l’US Navy compte y ajouter… de l’intelligence artificielle !

Pour être plus précis, l’US Navy a investi 2,5 milliards de dollars (oui, oui, milliards) pour développer un système appelé CANES (encore désolé pour les acronymes) pour Consolidated Afloat Networks and Enterprise Services ; un gros, un réseau de combat pour les navires de surface, dans le cadre du CEC. Ce réseau (dont plus de 50 systèmes sont aujourd’hui déjà opérationnels) doit être durci pour répondre aux impératifs de sécurité (protection contre les cyberattaques et communications sécurisées avec les terminaux durcis embarqués). Et c’est dans ce cadre que l’IA (Intelligence Artificielle) fait son apparition : il s’agit de pouvoir augmenter le niveau d’automatisation de CANES pour répondre aux différentes menaces.

lcs2

L’US Navy, pour expliquer sa problématique, prend l’exemple du porte-avion nucléaire de classe Nimitz USS Truman. Son réseau CANES comporte plus de 3400 réseaux locaux (LAN), correspondant à plus de 2700 localisations différentes à l’intérieur du navire. Dans une telle complexité, il devient difficile à des analystes humains d’identifier une tentative d’attaque ou d’intrusion dans l’un de ces points de vulnérabilité. Il s’agit donc d’utiliser l’intelligence artificielle pour réduire le nombre d’analystes humains requis, et d’optimiser l’efficacité de la détection et de la sécurité.

Jusque là, même si la difficulté est réelle, il s’agit d’une utilisation classique de l’IA. Mais le concept va plus loin puisque la marine américaine souhaite que l’IA suggère, en cas d’attaque, les contre-mesures appropriées, voire suggérer des cyberattaques offensives menées par l’IA contre ses adversaires. Et le système est supposé apprendre de l’ensemble des menaces déjà détectées et identifiées. Comme le réseau agrège de nombreuses ressources, il s’agit bien de faire de l’IA, et de constituer un système adaptatif, apprenant de tout ce qu’il observe, et capable de généraliser, c’est à dire de mettre en oeuvre des stratégies fondées sur ce qu’il a appris. Big data, donc, mais pas seulement!

Mais cette introduction de l’IA dans le réseau va au-delà des préoccupations seules de cybersécurité : il s’agit également de pouvoir réaliser une analyse des données senseurs par exemple à des fins de maintenance prédictive des différents équipements. L’IA permet alors d’identifier les défaillances ou dérives avant qu’elles ne deviennent critiques : c’est par exemple le système ADEPT Distance Support Sensor Suite (ADSSS) que la société Mikros a récemment installé sur la frégate LCS USS Independence. Du point de vue de la cybersécurité, il s’agit également d’utiliser l’IA pour optimiser le déploiement de mises à jour ou de patchs de sécurité au sein du système CANES.

lcs4

Au-delà, l’US Navy souhaite intégrer l’IA dans le contexte d’une aide tactique, et cela aussi, c’est nouveau. Il ne s’agit de pouvoir procéder à une analyse consolidée des données agrégées au niveau de la plate-forme LCS : imagerie, données SONAR, drones de type FireScout (ci-dessus), mais aussi d’utiliser l’IA pour aider à la coordination des feux dans une optique de protection collaborative.

Pas d’indication en revanche (et on le comprend) sur la nature des systèmes d’IA ou même leur famille. Si, dans le domaine cyber, les programmes sont déjà bien identifiés et sans doute facilement transposables dans le contexte du LCS, dans le domaine opérationnel tactique, aucune information ne filtre pour le moment. Mais nous resterons aux aguets.

Bonne année à vous tous – ce blog reprend son cours et vous souhaite en l’occurrence bon vent et bonne mer!

gtd9

Je commence par présenter mes excuses pour ce rythme de posts un peu ralenti, mais je suis en déplacement, et comme rien ne se passe jamais comme prévu, j’ai du modifier quelques plans, ce qui me fait prendre du retard dans la tenue du blog.

Je voulais aujourd’hui partager une innovation que j’ai pu voir lors du salon Milipol sur le stand de l’entreprise barcelonaise GTD. Juste pour ceux qui ne connaîtraient pas cette entreprise, GTD, dirigée par le talentueux et sympathique Angel Ramirez, est une société espagnole assez remarquable, créée en 1987 par Angel et trois autres associés, afin de développer des systèmes d’information dans le domaine industriel.

Trente ans plus tard, c’est le genre de société dont tout le monde rêve : GTD fait de l’aéronautique, du spatial, du naval, de la sécurité et de la défense, avec des réalisations assez emblématiques, comme le centre de contrôle du lanceur Ariane V, ou la réalisation d’instruments critiques pour le projet ITER. J’ai une sincère admiration pour cette aventure industrielle et technologique, vous l’aurez compris.

gtd10

Une superbe société, donc, qui ne cesse d’innover et qui présentait à Milipol le système CENTINELA (photo ci-dessus, avec mon ami Angel Ramirez) : un système d’observation à 360°, qui est capable d’indiquer si vous êtes observé par un sniper ou un observateur muni d’un système optique de précision, de jour comme de nuit.

gtd2

L’intérêt opérationnel est immédiat : pouvoir détecter et géolocaliser en temps réel un sniper qui s’apprête à tirer, avant que le coup ne soit parti. Ou détecter un observateur qui pointe ses jumelles sur un convoi, indice possible de la présence d’un dispositif de type IED. Le système peut également détecter la présence d’un dispositif espion de type caméra ou appareil photo.

C’est donc un détecteur d’optique pointée (DOP), un système qui, en soi, est connu depuis longtemps. Le principe repose sur l’utilisation d’un balayage par faisceaux laser. Ces faisceaux sont réfléchis dès qu’ils rencontrent un dispositif optique : ce que l’on appelle la rétrodiffusion (le système optique est illuminé le faisceau, il renvoie sur le même axe optique une portion de lumière rétrodiffusée). Et cela fonctionne bien (voir image ci-dessous, je vous défie de trouver l’observateur à l’œil nu).

gtd8

Une analyse est ensuite réalisée permettant d’identifier la nature de la menace et de géolocaliser sa source, encore une fois avant que le coup ne soit parti ou l’IED activé.

gtd5

 Les lecteurs pourront objecter que de nombreux dispositifs de détection d’optique pointée existent déjà, par exemple chez Airbus, Safran E&D ou développés par la société française spécialisée dans les lasers, CILAS. Mais ce qui fait la spécificité de Centinela (plus particulièrement du modèle EB210), c’est son efficacité, sa compacité et sa modularité. Le système est en effet capable d’effectuer une détection jusqu’à 2km, sur 360, avec géolocalisation instantanée et dans un facteur de forme particulièrement compact (voir tableau ci-dessous).

gtd1

Cela permet en particulier de l’embarquer dans un véhicule de manière discrète et le déployer très rapidement sur une zone isolée (sans doute une limitation de bon nombre de ses concurrents).

gtd4

Le système est également capable d’utiliser une approche multispectrale afin de désambigüer et d’identifier la nature de la menace, et peut être couplé avec une station d’identification (en l’occurrence baptisée Campanile 212 – ci dessous à droite), afin de fournir un appui décisionnel une fois que la cible a été détectée.

gtd3

GTD a également développé différentes versions portables, sous forme de jumelles compactes, permettant d’équiper les fantassins ou forces de sécurité.

gtd6

Ces détecteurs utilisent le même principe avec quelques variations (laser pulsé ou émission infrarouge) afin de détecter les optiques pointées, avec une précision et une efficacité assez impressionnante (voir image ci-dessous, correspondant à la détection d’un observateur derrière les vitres teintées d’un immeuble).

gtd7

Une belle réalisation, avec des applications multiples allant (on l’a dit) de la détection d’individus malveillants, à la surveillance de frontières, ou à la détection de drones d’observation.

Pour plus d’information sur cette belle société qu’est GTD, voici le lien vers leur site Internet.

horiz8

Dans la lutte contre le terrorisme, la localisation, détection, et, le cas échéant, interception des communications des téléphones satellites sont des enjeux majeurs. Guère plus imposants que des téléphones classiques, les téléphones satellites utilisent comme leur nom l’indique une liaison satellitaire directe sans devoir passer par des antennes relais. C’est le cas des systèmes les plus connus comme Thuraya ou Inmarsat.

Les téléphones satellites sont utilisés par les officiels, les journalistes, les travailleurs humanitaires, mais aussi par certains terroristes, et par les passeurs de migrants. On se rappelle par exemple des attentats de Bombay en 2008 (photo ci-dessous), attentats coordonnés menés par cinq équipes de deux hommes (mode opératoire similaire aux attentats du 13 novembre 2016 à Paris). On sait maintenant que les terroristes avaient utilisé des téléphones satellites pour coordonner leurs actions et leurs attaques.

horiz1

Suivre un personnel équipé d’un téléphone satellite, détecter un groupe terroriste ou identifier et suivre une embarcation de migrants nécessitait jusqu’à maintenant l’utilisation de moyens aériens onéreux. Les industriels comme le leader Rhode & Schwarz ont ainsi développé des moyens SIGINT (SIGnal INTelligence) permettant de détecter et d’intercepter les signaux radio concernés, qu’il s’agisse de SMS, de voix ou de liaisons de données. Ces plates-formes SIGINT sont montées sur des avions ISR (Intelligence, Surveillance, Reconnaissance)  ou des hélicoptères qui survolent la zone surveillée afin d’avoir une bonne couverture radio. Au-delà de la communication elle-même, les résultats sont géolocalisés et reportés sur un système d’information géographique.

horiz2

Mais quand les territoires sont étendus comme dans la bande sahélo-saharienne, ou en mer méditerranée (avec la détection des bateaux convoyant illégalement des migrants), le coût d’une telle surveillance aéroportée est prohibitif. De plus, les flottes d’avions SIGINT – souvent la propriété de « contractors » privés comme AirAttack qui proposent des Cessna 550 Citation II  – sont limitées, et extrêmement sollicitées. Il y a donc un intérêt certain à utiliser des systèmes plus petits et plus flexibles, comme les drones. Toutefois, jusqu’à ce jour, les caractéristiques et dimensions des systèmes SIGINT étaient difficilement compatibles avec leur emport sur une plate-forme de type UAV. Une difficulté aujourd’hui surmontée par la société britannique Horizon Technologies.

horiz7

Cette société est connue pour son système FlyingFish, développée en partenariat avec le géant américain L3-Communications. Dans sa troisième génération – et sa version aéroportée –  il s’agit d’un système passif de surveillance, permettant de détecter et surveiller simultanément 64 canaux des réseaux Thuraya et IsatPhone Pro (32 canaux surveillés par réseau), avec une portée de surveillance de 400km. Les deux réseaux ne sont pas équivalents : le réseau Isat Phone Pro, en particulier, nécessite un module de décryptage permettant de récupérer la communication, et la position GPS du terminal, ce qui n’est pas le cas du réseau Thuraya. Le système FlyingFish pèse tout de même 16kg, pour des dimensions de 39,2×37,1×24 cm, ce qui le rend difficile à emporter par autre chose qu’un avion ou un hélicoptère.

horiz5

Pour pallier cet inconvénient, la société a développé XTender, un module permettant de déporter sur un drone (même un mini-drone) une antenne et un module de calcul relayant les capacités du module FlyingFish. Ce module pèse moins de 5 kg – il est complété par une antenne de moins de 500g, de la taille d’une clé USB, déployable également sur le drone. L’ensemble module/antenne dialogue avec une station FlyingFish à terre.

horiz6

L’intérêt de la technologie est également d’être duale : pas de réglementation ITAR ici, seule une licence d’exportation commerciale britannique est requise. Pour le constructeur, le système Xtender peut être utilisé sur des drones de type REAPER ou Spyranger, jusqu’à des minidrones comme les machines ISR d’AeroVironment comme le PUMA (ci-dessous).

horiz3

Enfin, la capacité du FlyingFish de pouvoir, de manière passive, surveiller deux réseaux simultanément est susceptible de contrer certains modes d’actions de groupes terroristes, qui pensent échapper à la surveillance en changeant fréquemment de réseau. Plus de 30 systèmes sont déjà déployés aujourd’hui sur des plates-formes aériennes au sein de l’OTAN – un nombre susceptible de croître considérablement grâce à l’emploi de ces mini-drones « ISR ».

 

sc26

Encore un projet (de plus) porté par la (désormais trop) récurrente DARPA. Le Colosseum (Colisée en anglais) porte bien son nom : implanté dans le Maryland au sein du Johns Hopkins University Applied Physics Laboratory (APL), il s’agit d’un nouvel équipement qui vient d’être mis en service. Et effectivement, il est impressionnant.

Son objectif : constituer un environnement expérimental permettant de créer et d’étudier de nouveaux concepts pour la gestion de l’accès au spectre électromagnétique civil et militaire. Très concrètement, il s’agit d’une pièce de 6mx10m, remplie de racks de serveurs. Pas vraiment impressionnant, du moins sur le plan physique. Dans le monde virtuel, c’est autre chose.

sc23

Car le Colosseum est capable d’émuler plusieurs dizaines de milliers d’interactions possibles entre des centaines de terminaux sans fils : radios civiles et militaires, objets communicants, téléphones portables… C’est comme si l’on se trouvait dans un environnement d’un km2, empli d’objets communiquant simultanément et interagissant. Pour être encore plus clair, le Colosseum fait « croire » à ces radios qu’elles sont immergées dans un environnement donné, fixé par l’utilisateur : centre urbain, théâtre d’opérations, centre commercial, forêt vierge ou désert… Et il peut simuler plus de 65000 interactions entre 256 terminaux connectés, chaque terminal opérant comme s’il disposait de 100MHz de bande passante. En tout, le Colosseum manipule donc 25GHz de bande passante. Chaque seconde (oui, seconde), le Colosseum gère 52 Teraoctets de données. Pas mal…

Le Colosseum est une pièce centrale d’un projet baptisé SC2 pour Spectrum Collaboration Challenge, une compétition visant à changer radicalement la manière dont les futurs systèmes de communication sont conçus.

sc21

En l’occurrence, au lieu de pré-programmer ces futurs systèmes (comme cela est réalisé aujourd’hui dans la totalité des cas), le projet SC2 vise à développer des nouveaux systèmes de communication adaptatifs, capables d’apprendre en temps réel en fonction de l’environnement, de leur historique d’emploi, et des interactions avec les autres systèmes de communication.

sc27

L’idée est d’utiliser des technologies d’intelligence artificielle pour optimiser la stratégie de communication en temps réel : exploiter les failles dans le spectre électromagnétique, établir des partages de spectre, mettre en place des stratégies collaboratives permettant d’assurer la continuité et l’efficacité des communications entre plusieurs radios ou objets connectés. Les critères pour ce réseau radio « intelligent » de nouvelle génération (donc les règles du challenge SC2) sont de développer :

  • Un réseau radio reconfigurable
  • Un réseau capable d’observer, d’analyser et de « comprendre » son environnement (en termes de spectre électromagnétique)
  • Un réseau capable de raisonnement : quelle action entreprendre pour garantir une bonne communication dans un environnement donné
  • Un réseau capable de contextualiser : utiliser de l’apprentissage pour surmonter des aléas et exploiter au mieux le spectre électromagnétique
  • Un réseau capable de collaborer en travaillant avec d’autres systèmes, même nouveaux.

sc22

Pour émuler un environnement permettant de tester et d’entraîner cette intelligence artificielle, le Colosseum utilise 128 SDR (software defined radios ou radios logicielles). Ces radios sont couplées à 64 FPGAs (on va simplifier : des processeurs reconfigurables – image ci-dessous) permettant de moduler le comportement des radios logicielles pour reproduire les environnements électromagnétiques ciblés. Et tout cela dans un environnement de type cloud, permettant à plus de 30 équipes de recherche d’accéder au Colosseum (5 équipes en simultané), pour la compétition SC2.

sc24

Dotée d’un prix de 2 millions de dollars pour l’équipe gagnante, la compétition durera 3 ans, et s’achèvera donc début 2020 après trois phases, la dernière devant départager les deux meilleures équipes. Il s’agit une fois de plus de l’illustration de la créativité de l’agence, qui a souvent recours à ce type de « grand challenge » pour trouver des solutions originales et efficaces à des défis capacitaires. Pour plus d’informations, le site SC2 est ouvert et accessible en ligne: http://spectrumcollaborationchallenge.com/

dove2

On les appelle les « colombes » (Doves en anglais) mais ce sont de drôles de volatiles. Ce sont les 88 satellites – oui, 88! – qui vont partir en orbite aujourd’hui, à bord d’une fusée de type PSLV (Polar Satellite Lauch Vehicle) décollant du centre indien Satish Dhawan Space Center.

Mettre 88 satellites dans une fusée, cela donne une idée de la taille de chaque objet : 4,7 kg seulement par satellite, chacun occupant un volume de 10x10x30 cm. Ce sont des satellites de type CubeSat, capables d’observer la Terre en multispectral avec une résolution de 3 à 5m. Chaque satellite réalise une orbite complète en 90 min, et outre des caméras d’imagerie, dispose d’une caméra stellaire pour un positionnement fin de l’image. Les concepteurs sont même allés jusqu’à décorer chaque satellite par un « artist in residence » qui a réalisé des sérigraphies laser ( !).

dov6

Cette approche a été développée par la société privée Planet, qui n’en est pas à son coup d’essai, puisque la constellation est déjà partiellement en orbite : plus de 20 satellites Dove ont déjà été déployés, à une altitude de 400km. Regardez cette vidéo impressionnante du déploiement de 2 satellites Dove à partir de l’ISS (station spatiale internationale).

La société Planet dispose en tout de 55 micro-satellites déjà opérationnels. Mais aujourd’hui, on parle bien du déploiement de la plus grande flotte de satellites jamais effectué.

L’idée derrière la constellation des Doves est d’utiliser une ligne de satellites connectés comme un scanner pour photographier la surface de la Terre. Ils interagissent entre eux, mais également avec d’autres satellites – nous y reviendrons.

dove3

Evidemment, outre le fait de concevoir ses propres satellites, Planet –  qui a récemment levé 183 millions de $ de capital – développe aussi ses propres logiciels : un logiciel de gestion de la flotte satellitaire automatique (ce n’est pas si évident de gérer plus de 100 satellites en orbite dans la même constellation) – voir ci-dessous:

dove5

La société a également développé un « pipeline » de traitement, une plate-forme complète permettant  une automatisation du processus d’imagerie.

dove6

Mais Planet ne s’arrête pas là puisqu’elle vient d’acquérir la société TerraBella (en la rachetant à Google !), une société qui opère sept satellites très complémentaires des Doves, puisque chacun dispose d’une résolution 4 à 6 fois supérieure. De quoi former un système de surveillance impressionnant.

Car tout cela, finalement, a pour objectif développer la plate-forme de surveillance automatique de la Terre la plus performante et la plus simple d’emploi jamais conçue. Son principe de fonctionnement est finalement simple. Les Doves réalisent un premier scanner, et le réactualisent à chaque orbite. Si un changement est détecté, alors l’un des satellites Terra Bella est activé et braqué sur la zone d’intérêt. Cela peut être une catastrophe naturelle, une modification des zones agricoles, mais aussi la présence de véhicules blindés ou de navires de guerre dans une zone, par exemple. Ou l’observation de l’évolution de la construction d’une piste, comme dans cette photo de l’île  Fiery Cross dans l’archipel disputé des Spratleys.

dove1

Même si les Doves ne sont pas déployés depuis longtemps, ils peuvent analyser des changements sur des périodes plus longues, car Planet a racheté en 2015 la société BlackBridge qui détient les données d’observation issues de l’imagerie satellitaire Landsat 8 et Sentinel 2. Ces données sont combinées au sein de la même plateforme. En tout, voici les données disponibles via Planet :

  • PlanetScope: Bandes RGB et NIR (proche infrarouge) (3.7m de résolution), Constellation Dove
  • RapidEye: Bandes RGB, NIR et red edge – bordure rouge (6.5m de résolution), Constellation RapidEye
  • Sentinel-2: 13 bandes spectrales– RGB et NIR bands (10m de résolution); six bandes red edge et infrarouges à ondes courtes (20m de résolution); trois bandes de correction atmosphérique (60m de résolution)
  • Landsat 8: 11 bandes spectrales – Bande panchromatique (15m de résolution); 8 RGB, NIR, IR à ondes courtes, and correction atmosphérique (20m de résolution); 2 bandes IR thermique (100m de résolution)

Planet devient donc un opérateur très complet, capable de détecter toute modification dans une zone quelconque (ou presque) sur la Terre. Et avec un contrat adéquat, en théorie, toute organisation peut utiliser sa plate-forme pour réaliser des observations performantes.

On voit donc apparaître un opérateur privé qui devient capable de détenir des technologies jusqu’alors réservées aux états. On peut presque dire que l’imagerie satellitaire devient une technologie dite nivelante, accessible en théorie au plus grand nombre.

Car si le lancement d’aujourd’hui est un succès (le dernier lancement de 23 Doves fut un échec majeur avec l’explosion du lanceur, comme quoi il ne s’agit pas d’un sport de masse), de tels investissements montrent que Planet cible bien une offre large, destinée à un grand nombre de clients. Il conviendra donc de suivre la mise en place des garde-fous nécessaires au maintien d’un certain contrôle, dans un domaine qui demeure sensible.

 

mob2

Qu’il s’agisse de bateaux militaires ou de navires civils (en particulier de navires de croisière), la détection de la chute d’un passager par-dessus bord devient une question plus que prioritaire dans le monde naval. A l’heure où se tient à Paris le salon Euromaritime, voici donc un petit zoom sur une technologie prometteuse baptisée MOBtronic, développée par MARSS, une société monégasque, technologie qui m’a été récemment présentée. Un petit mot en premier lieu sur le contexte.

En 2010, les US Coast Guards ont mis en vigueur le CVSSA Cruise Vessels Security and Safety Act pour combattre le crime à bord des navires de croisière et mettre en place un suivi de ce phénomène en toute transparence. Les navires de croisières soumis cette juridiction sont ceux qui peuvent accueillir plus de 250 passagers pour une navigation hauturière et les embarquent ou les débarquent aux Etats-Unis (soit environ 150 navires dont la moitié sous pavillon étranger). Le CVSSA mentionne que ces navires « doivent intégrer une technologie qui puisse être utilisée pour capturer les images des passagers ou détecter les passagers qui sont tombés par-dessus bord dans la mesure où une telle technologie est disponible ». Cette formulation peu contraignante a conduit la plupart des armateurs à se reposer sur leur circuit de vidéosurveillance et à considérer que la technologie n’était finalement pas disponible.

mob8

Pourtant, de récentes tragédies (par exemple le décès de Cameron Smook, un étudiant de 21 ans passé par-dessus-bord lors d’un voyage aux Bahamas à bord du Carnival Glory, dont les images de la chute ont été capturées par la vidéosurveillance) montrent qu’il est nécessaire de disposer d’une technologie fiable, et surtout rapide et automatisée. Le nombre d’incidents à bord des navires de croisière est sujet à controverse (on parle d’une vingtaine de cas par an, mais les associations de victimes et les armateurs ne s’accordent pas sur les chiffres), mais une chose est sûre : entre les cas connus dans le monde civil et les accidents non documentés à bord des bateaux militaires, une technologie de détection automatique n’est plus un luxe mais une nécessité.

mob1

Car la vidéosurveillance a ses limites : les caméras doivent être supervisées à tout moment, elles ne sont pas placées aux endroits les plus susceptibles de constituer un risque, et ne fournissent généralement que des images destinées à fournir des informations à la police après que l’incident a eu lieu.

Le système MOBtronic de MARSS a pour objectif de déclencher automatiquement, sans supervision humaine, une alarme dès qu’un accident se produit.  MOB étant l’abréviation en anglais de « man over board » (homme à la mer), le système est conçu pour automatiquement détecter, qualifier l’accident, alerter l’équipage dès qu’un humain passe par-dessus bord, tout en conservant une capacité de suivi (« tracking ») afin de localiser l’homme à la mer et de faciliter les opérations de secours.

mob7

Le système repose sur le placement de stations multicapteurs disposées de manière optimisée sur le pourtour du bâtiment à surveiller. L’idée, c’est de maximiser la redondance, c’est-à-dire de s’assurer que toute chute puisse au minimum être observée par 2 stations. Chacune de ces stations (durcies pour pouvoir résister aux conditions de mer, aux chocs, aux vibrations) intègre des micro-radars et des dispositifs de capture d’image (en multispectral). Outre la conception de ces stations, le système repose sur des algorithmes propriétaires de traitement du signal afin de qualifier la détection de manière optimale. C’est d’ailleurs toujours la problématique de ce type de systèmes : ne pas faire de silence (détecter la quasi-totalité des incidents) mais également minimiser le bruit (ne pas alerter l’équipage à tout bout de champ, ce qui le distrairait de ses tâches principales).

mob6

La décision de déclencher une alarme repose ici sur une hiérarchie à cinq niveaux : analyse des signaux radars (détection et suivi de la chute), confirmation de la détection radar par d’autres senseurs indépendants, analyse comportementale de l’objet (fondée sur la vitesse et la direction de chute, la forme de l’objet…) et confirmation par une analyse image fondée sur la signature infrarouge de l’objet (ce qui permet de détecter les signatures thermiques caractéristiques d’un humain). A ce point, une alarme est déclenchée, et l’équipage doit confirmer la réalité de l’accident en rejouant les images de capture vidéo. Pendant ce temps, le système continue de suivre l’objet, ce qui permet (dans le cas où il s’agit bien d’un homme à la mer) de diriger les opérations de sauvetage. Le système peut également s’interfacer avec les systèmes de gestion de la passerelle. La localisation du point de chute est précise au mètre près. L’acquisition des données et leur analyse sont en partie réalisées localement, par chaque station.

mob3

L’idée vraiment originale, c’est d’arriver à coupler détection radar et analyse d’image, ce qui permet de discriminer entre, par exemple, la chute d’un adulte, d’un enfant, ou le plongeon d’un oiseau de mer. Les concepteurs ont ainsi maximisé l’efficacité du système en adoptant une approche intégrée multicapteurs, là où les systèmes concurrents ont tendance à ne reposer que sur une seule et unique technologie.

mob5

Une intégration de technologies originale, qui a déjà montré son efficacité impressionnante lors des tests : 95% de probabilité de détection (avec un taux d’activation erronée inférieur à 0,3 sur une période de 24h). La campagne de test a déjà accumulé des données sur 22 000 heures de fonctionnement, les tests ayant été réalisés sur des mannequins (plus de 1400 tests) mais également sur des humains « en saut à l’élastique » (200 tests), et ce dans toutes les conditions (jour, nuit, mer calme ou agitée, météo clémente ou tempête). Les chutes se produisant dans toutes les configurations, le système a montré qu’il restait fiable pour des mers agitées (jusqu’à 7) et des vitesses de vents de 50 nœuds (soit environ 100km/h).

mob4

Un système réellement novateur, donc, qui pourrait être adapté à d’autres besoins : détection d’incendie, tentative d’abordage (lutte anti-piraterie), ou même surveillance d’un périmètre, dans des applications militaires terrestres.

Les lecteurs intéressés peuvent directement m’écrire, je transmettrai aux concepteurs (je rassure, je n’ai aucun lien commercial avec la société).

dedrone2

Dans le domaine de la lutte anti-drones, il y a autant de stratégies que d’acteurs, et cela va de l’utilisation d’oiseaux de proie dressés à leur interception (si,si), à l’envoi de drones chasseurs de drones, en passant par l’utilisation d’armes à énergie dirigée (voire l’utilisation de carabines). Avec un effet recherché constant : capturer ou faire chuter le drone, ce qui pose de nombreux problèmes notamment en cas de survol de zones habitées.

Dans cette course à l’armement, l’allemand Deutsche Telekom et son partenaire DeDrone ont adopté une stratégie qui peut faire penser à l’Iron Dome de défense antimissile israelien: constituer un dôme virtuel de protection, appelé Magenta Drone Protection Shield, implémentant une panoplie de contre-mesures anti-drones allant du plus anodin au plus critique.

dedrone1

Dans un premier temps, l’objectif est de détecter et d’identifier un drone pénétrant dans l’espace aérien sensible. En soi, c’est déjà une tâche complexe. Elle nécessite une combinaison de capteurs ; en l’occurrence des caméras dans le visible et l’infrarouge, des scanners de fréquence (conçus par Rhode & Schwartz), des réseaux de microphones – y compris dans le spectre ultrasonique (construits par Squarehead), des radars (Robin).

De la même manière qu’un sonar (ou un logiciel antivirus), chaque drone se voit ainsi attribuer une « signature » caractéristique, constituée d’une combinaison de ces détections. Cette signature unique, baptisée « DroneDNA » par la société, est hébergée sur un serveur Cloud,  et permet non seulement la détection, mais surtout l’identification du drone et de ses caractéristiques par un système de reconnaissance et de classification automatique. Inutile de le préciser : le système discrimine évidemment entre un drone, un oiseau ou un hélicoptère…

dedrone3

Une fois le drone identifié vient le temps des contre-mesures. Au-delà des actions classiques (aveuglement par laser, ou brouillage des fréquences qui sont des solutions éprouvées), DroneTracker implémente également une panoplie d’actions plus… ésotériques. Pour l’instant, en analysant la solution, il semble que ces contre-mesures soient déléguées à des systèmes tiers, mais deux d’entre elles ont retenu mon attention.

La première, c’est l’émission d’un signal de type EMP courte portée dirigé. Pour mémoire, l’EMP (ElectroMagnetic Pulse – IEM en français) est une émission d’ondes électromagnétiques brève (pulse) et de très forte intensité qui peut détruire de nombreux appareils électriques et électroniques et brouiller les communications. L’effet EMP (ou effet Compton) a été observé pour la première fois lors des essais nucléaires menés par les Etats-Unis dans l’espace en 1962, et baptisés Starfish Prime (photo ci-après). Lors de l’explosion d’une bombe de 1,44 mégatonnes à 400km d’altitude, 300 lampadaires d’Hawaï ont été éteints (ils se situaient à plus de 1400 km), les alarmes des maisons et des véhicules ont été déclenchées, les systèmes avioniques ont été endommagés, et les réseaux de communication neutralisés.

dedrone5

Utiliser une impulsion EMP pour neutraliser un drone n’est donc pas véritablement anodin (il faut espérer qu’aucun hélicoptère ne se trouvera dans les parages). Mais les armes à énergie dirigée de type EMP existent bien, et dans un prochain article, nous ferons un focus sur celles-ci. Reste ensuite à examiner si leur emploi (soumis de toutes façons à autorisation) est bien adapté à une telle situation. Sans parler des risques occasionnés par la chute de l’objet.

Mais les concepteurs ont imaginé un autre mode d’action : le déni d’image en connectant un système domotique au DroneTracker. Faisons simple : pour ne pas prendre d’image ou de vidéo, il suffit (d’après les concepteurs) de fermer automatiquement… les fenêtres, les volets, les portes. Ce qu’on pourrait appeler une fausse bonne idée. Imaginons comment des pirates pourraient ainsi s’amuser à faire voler des drones près des installations ciblées aux seules fins de perturber le fonctionnement des portes et des fenêtres.

Un mode d’action qui peut d’ailleurs aller plus loin : des hackers ont ainsi réussi à pirater des ampoules connectées à l’aide d’un drone.  Bon, il s’agissait de chercheurs de l’institut Weizmann qui faisaient une expérience sur les vulnérabilités de l’Internet des objets. En l’occurrence, le drone a été envoyé près d’un immeuble dans lequel se trouvaient des ampoules connectées Philips Hue.

dedrone4

En exploitant une vulnérabilité du logiciel de ces ampoules (car, on ne le répétera jamais assez, les objets connectés sont plus vulnérables, et moins régulièrement mis à jour d’un ordinateur classique), ils ont injecté un programme malicieux (malware) dans une première ampoule. Le malware a été ensuite transmis par la première ampoule aux ampoules adjacentes, créant ainsi un réseau qui a pu être contrôlé à distance par les hackers. En ce cas, la vulnérabilité était davantage dans les standards utilisés pour la connexion des objets que dans le firmware de l’objet lui-même. La vidéo ci-dessous est assez impressionnante, d’autant que le coût d’une telle attaque est de quelques centaines d’euros.

La course aux armements entre systèmes de drones et systèmes anti-drones est donc en train de s’enrichir d’un troisième acteur : l’internet des objets qui peut à la fois constituer un effecteur… et une cible.

20161123_115905_resized

Vous êtes quelques-uns à reprocher (gentiment) à ce blog une certaine orientation vers la recherche américaine. Ce n’est pas une volonté, mais une conséquence (1) des conséquents budgets américains en termes de R&D de défense et (2) d’une maîtrise certaine de la communication par nos voisins outre-Atlantique (les amenant d’ailleurs parfois à communiquer avec un certain talent des programmes politiques n’ayant pas grand-chose à voir avec la réalité, je dis ça comme ça….).

Une fois par an, la DGA organise son Forum Innovation. C’était hier et aujourd’hui, sur le site de Palaiseau, et pour le coup, cela amène une réelle volonté active de communication de la part à la fois de institutionnels, mais aussi des laboratoires et des petites entreprises. J’ai donc fait mon marché de l’innovation, en voici un premier résultat.

20161123_115841_resized

Le projet s’appelle AXONE. Il s’agit d’un système neuronal artificiel capable de réaliser des tâches d’analyse de scène en temps réel. Il s’agit du résultat d’un projet RAPID (Régime d’Appui pour l’Innovation Duale – voir la page de référence ici ) associant l’Institut Saint-Louis, la société Spikenet Technologies et la société GlobalSensing Technologies.

L’idée est d’utiliser un certain type de réseaux de neurones artificiels, les neurones à Spike, pour procéder à l’analyse en temps réel d’une scène visuelle, et de les embarquer sur des composants dédiés (SoC ou Systems on Chips). Je vais essayer d’expliquer simplement le concept – et ce, d’autant plus que j’avais travaillé il y a plus de vingt ans avec le Pr Simon Thorpe, créateur de la technologie SpikeNet (il me semble que j’ai même commis un article sur le sujet…).

20161123_115838_resized

Pour faire simple : en neurobiologie, on se pose depuis longtemps la question de la nature du codage de l’information par les neurones. La théorie générale est fondée sur un codage fréquentiel de l’information (fréquence des décharges électriques). Mais il existe une autre théorie reposant sur un codage temporel de l’information : le codage serait fait par des impulsions (spikes) ou plus précisément par les instants d’émission des impulsions. On prend donc en compte l’aspect temporel. Un réseau artificiel de neurones à spike est conçu pour simuler des réseaux qui contiennent un nombre très grand de neurones à décharge asynchrone et qui apprennent par codage des séquences de décharge. On appelle cela le codage par rangs (évidemment, je simplifie). Cette technologie est très utilisée pour la reconnaissance de formes, et en particulier le traitement d’images.

L’intérêt de cette technologie est que le temps d’apprentissage est très rapide, et très tolérant (aux conditions d’illumination, au bruit, aux contrastes…). Dans le projet AXONE, les participants ont ainsi pu implanter un réseau de neurones à spike sur une carte dédiée (ce que l’on appelle un processeur FPGA). En gros, il s’agit d’un processeur reconfigurable, comportant 1024 neurones artificiels, et conçue par la société GlobalSensing Technologies. Avec SpikeNet et l’ISL, et en 24 mois, les acteurs du projet AXONE ont réalisé une caméra reconfigurable générant des Spikes en lieu et place des images. Le travail a ainsi consisté (outre évidemment l’algorithmique sous-jacente) à intégrer ce réseau de neurones artificiel avec un capteur, au sein d’une caméra autonome, et de développer la librairie logicielle pour la mise en œuvre de ces composants.

20161123_115903_resized

Et le résultat est impressionnant. Lors de la présentation au Forum DGA, on a pu ainsi visualiser la reconnaissance de visages en temps réel (chaque visage est reconnu, en temps réel, avec sa signature unique). Les applications sont nombreuses : sécurité et surveillance de sites sensibles avec levée de doute par la caméra elle-même, capteurs abandonnés capables de réaliser une analyse in situ (voir mon article sur l’IA embarquée), et évidemment, augmentation de la capacité de reconnaissance de forme en robotique et en particulier pour les drones.

20161123_115855_resized

J’ajoute que la DGA a pris une initiative originale : celle de faire parrainer certaines innovations par des personnalités de l’institution. En l’occurrence, AXONE est parrainée par l’excellent Lionel MORIN, directeur du CATOD (Centre d’Analyse Technico-Opérationnelle de Défense) – ci-dessous.

20161123_123107_hdr_resized

Une technologie à suivre, et une excellente illustration des capacités d’innovation de l’écosystème français de la Défense – je publierai d’ailleurs bientôt d’autres articles suite à ma visite sur le forum Innovation.

ukraine1

Si vous vous en souvenez, j’avais déjà parlé de ces projets de blindage « transparent » : l’idée de munir un chef d’engin de lunettes de réalité virtuelle afin de pouvoir disposer d’une vue de ce qui l’entoure, simplement en regardant autour de lui (voir cet article).

L’idée du blindage transparent n’est donc pas nouvelle. Il y a le véritable blindage transparent réalisé à partir de matériaux comme la spinelle (voir également cet article), mais surtout l’idée d’utiliser des dispositifs de réalité virtuelle qui agrègent l’information visuelle ou thermique fournie par les capteurs externes, et permettent au regard du chef de « percer le blindage ». La société Finmeccanica avait d’ailleurs démontré un tel prototype pour un pilote d’hélicoptère lors du salon du Bourget 2013. Et l’armée norvégienne avait réalisé une expérimentation en utilisant le casque de réalité virtuelle Oculus Rift dans le même but (image ci-dessous).

article-2621476-1D9D205400000578-542_634x356

L’idée refait aujourd’hui surface, à la fois stimulée par l’émergence de nouvelles technologies de casques à réalité virtuelle et augmentée, et sous l’impulsion d’opérationnels…ukrainiens. Car une start-up de Kiev, Limpid Armor, vient de remporter une bourse de Microsoft pour développer une technologie de casque à réalité augmentée fondée sur la technologie Hololens.

ukraine3

Un petit mot sur cette technologie dont on parle depuis au moins deux ans. Il s’agit d’une technologie développée par Microsoft de réalité augmentée : des lunettes semi-transparentes, capables d’injecter dans la vision de l’utilisateur des images « holographiques » qui viennent se superposer à la vision de l’environnement de ce dernier. Les lunettes pèsent environ 400g et offrent un champ de vision de 120° par 120°. Mais surtout, avec une qualité de projection d’hologramme 3D assez bluffante. En fait, Hololens est un ordinateur en soi, et permet de percevoir des projections holographiques extrêmement brillantes, même dans un environnement lumineux.

La vidéo institutionnelle de promotion d’Hololens est présentée ci-dessous.

Bon, à la différence de ce que l’on voit dans la démo, le champ visuel est très – trop – réduit. En fait, il conviendrait d’avoir du 180° par 180° pour obtenir une qualité de projection réellement satisfaisante. Cela n’est néanmoins pas un obstacle pour le projet de Limpid Armor. Cette société a donc développé un concept alliant la technologie Hololens avec un réseau de caméras situées à l’extérieur du véhicule. Le système est baptisé CRS pour Circular Review System. Il fusionne les informations des caméras en une image composite, et serait même capable de réaliser du « blue force tracking » en réalité mixte : désigner au chef d’engin les forces alliées en superposant un identifiant sur le terrain réel. L’idée serait également d’aller vers la désignation au chef des cibles ou unités ennemies, directement dans son champ de vision.

ukraine2

L’idée est assez séduisante, même si le concept précédent, utilisant un casque de réalité virtuelle et non mixte (l’Oculus Rift) a très vite montré des limites opérationnelles : fatigue des yeux des opérateurs, surcharge informationnelle, mais surtout angoisse générée par l’impression de « ne pas être protégé », le blindage devenant transparent.

De telles innovations, même si elles paraissent séduisantes pour un technophile, doivent donc toujours être examinées par le prisme opérationnel. En particulier, ce cas d’école montre qu’il est nécessaire et même indispensable de prendre en compte les aspects liés aux facteurs humains, physiologiques comme psychologiques. La technologie ne fait pas tout. En tout cas, tant que les chars seront commandés par des hommes.

rachine1

Il y a quelques temps j’avais parlé dans ce blog du premier satellite utilisant le principe d’intrication quantique des photons pour réaliser une transmission cryptée (voir cet article). Cette fois-ci, il ne s’agit plus de cryptographie, mais d’une technologie plus directement opérationnelle : un radar tueur de furtivité.

Bon, je préviens tout de suite, nous sommes encore une fois dans le domaine quantique, donc dans un domaine parfaitement contre-intuitif, et mon effort de vulgarisation (surtout si l’on considère que je ne suis pas physicien) risque de m’attirer les foudres des experts. Désolé donc.

Le principe du radar quantique repose lui aussi sur le principe de l’intrication des photons, une propriété surprenante à l’échelle quantique. Pour faire simple, en physique quantique, l’état d’une particule est décrit par une « fonction d’onde ». Celle-ci correspond au spin de la particule (son moment cinétique, classiquement représenté par une flèche vers le haut ou le bas) et qui lui-même correspond à une superposition d’états. A l’échelle quantique, le spin est en effet une somme des états « vers le haut » et « vers le bas ».

Mais lorsqu’on mesure l’orientation du spin, la fonction d’onde est modifiée (« réduite ») de telle sorte que la superposition d’états disparaît et le spin observé prend, de façon aléatoire, la valeur « haut » ou la valeur « bas ». Pour l’instant, c’est encore compréhensible. Ça devient plus complexe lorsque l’on considère qu’en physique quantique, on peut avoir une généralisation de la superposition d’états à plusieurs particules. En l’occurrence, considérons 2 photons dits « intriqués » : ce sont deux particules dont les spins sont opposés. Même si ces particules sont spatialement éloignées, si l’on mesure le spin de la première, la seconde prend instantanément une valeur de spin opposée. Oui je sais, c’est bizarre. Mais c’est comme ça.

rachine3

Le radar chinois repose sur ce principe. L’astuce est d’utiliser la polarisation du signal radar comme une signature quantique. Un photon est séparé, via un dispositif optique, en un couple de photons intriqués. Le radar va ainsi générer un faisceau de photons A, et un faisceau de photons B, intriqués. Les photons B sont surveillés constamment (là encore, vous comprenez que je simplifie), alors que le faisceau A est envoyé en direction de la cible. Si la fonction d’onde du faisceau B se modifie, cela signifie que le faisceau de photons A a atteint une cible, ce qui a provoqué une modification de son spin, et ainsi modifié instantanément celui du faisceau B intriqué.

rachine4

L’intérêt, c’est que cette modification est indépendante de la forme de la surface heurtée. La furtivité classique consiste à minimiser la surface équivalente radar en supprimant autant que possible la réflexion des ondes en direction du radar. Mais dans le cas d’un radar quantique, il ne s’agit pas de détecter une onde réfléchie, mais de détecter une modification de l’état d’un faisceau de photons. Les stratégies classiques de furtivité sont donc inefficaces, comme le sont les contre-mesures de brouillage : le radar quantique n’utilise pas d’ondes ! De plus, l’interaction du faisceau de photons avec la cible est caractéristique de la nature de la cible elle-même : en observant les modifications du faisceau B, on arrive à caractériser la cible, sa position, sa vitesse et ses propriétés physiques.

rachine2

Ce radar a été développé par le Intelligent Perception Technology Laboratory du CETC (China Electronics Technology Corporation). Selon l’agence de presse chinoise, le système aurait réussi à détecter une cible à une distance de 100km. Ce n’est effectivement qu’une preuve de concept, et l’utilisation militaire d’une telle technologie nécessite évidemment des portées bien plus importantes. Il y a d’ailleurs là une difficulté : ce que l’on appelle la décohérence. Car plus les particules intriquées passent de temps dans le monde réel, plus elles ont tendance à perdre leurs propriétés quantiques. Lockheed Martin avait d’ailleurs tenté à plusieurs reprises de réaliser un tel radar, avant de se heurter au principe de décohérence.

Les allégations chinoises sont difficilement vérifiables, mais il est néanmoins vrai que la maîtrise d’une telle technologie constituerait une rupture capacitaire et stratégique. Une véritable réflexion sur l’impact de telles innovations (informatique et technologies quantiques, convergence NBIC, …) et sur leur financement, pour éviter à notre pays et à notre continent toute surprise stratégique majeure me semble aujourd’hui indispensable. Mais ce n’est que mon avis.