Archives de la catégorie ‘Informatique et IA’

 

sc26

Encore un projet (de plus) porté par la (désormais trop) récurrente DARPA. Le Colosseum (Colisée en anglais) porte bien son nom : implanté dans le Maryland au sein du Johns Hopkins University Applied Physics Laboratory (APL), il s’agit d’un nouvel équipement qui vient d’être mis en service. Et effectivement, il est impressionnant.

Son objectif : constituer un environnement expérimental permettant de créer et d’étudier de nouveaux concepts pour la gestion de l’accès au spectre électromagnétique civil et militaire. Très concrètement, il s’agit d’une pièce de 6mx10m, remplie de racks de serveurs. Pas vraiment impressionnant, du moins sur le plan physique. Dans le monde virtuel, c’est autre chose.

sc23

Car le Colosseum est capable d’émuler plusieurs dizaines de milliers d’interactions possibles entre des centaines de terminaux sans fils : radios civiles et militaires, objets communicants, téléphones portables… C’est comme si l’on se trouvait dans un environnement d’un km2, empli d’objets communiquant simultanément et interagissant. Pour être encore plus clair, le Colosseum fait « croire » à ces radios qu’elles sont immergées dans un environnement donné, fixé par l’utilisateur : centre urbain, théâtre d’opérations, centre commercial, forêt vierge ou désert… Et il peut simuler plus de 65000 interactions entre 256 terminaux connectés, chaque terminal opérant comme s’il disposait de 100MHz de bande passante. En tout, le Colosseum manipule donc 25GHz de bande passante. Chaque seconde (oui, seconde), le Colosseum gère 52 Teraoctets de données. Pas mal…

Le Colosseum est une pièce centrale d’un projet baptisé SC2 pour Spectrum Collaboration Challenge, une compétition visant à changer radicalement la manière dont les futurs systèmes de communication sont conçus.

sc21

En l’occurrence, au lieu de pré-programmer ces futurs systèmes (comme cela est réalisé aujourd’hui dans la totalité des cas), le projet SC2 vise à développer des nouveaux systèmes de communication adaptatifs, capables d’apprendre en temps réel en fonction de l’environnement, de leur historique d’emploi, et des interactions avec les autres systèmes de communication.

sc27

L’idée est d’utiliser des technologies d’intelligence artificielle pour optimiser la stratégie de communication en temps réel : exploiter les failles dans le spectre électromagnétique, établir des partages de spectre, mettre en place des stratégies collaboratives permettant d’assurer la continuité et l’efficacité des communications entre plusieurs radios ou objets connectés. Les critères pour ce réseau radio « intelligent » de nouvelle génération (donc les règles du challenge SC2) sont de développer :

  • Un réseau radio reconfigurable
  • Un réseau capable d’observer, d’analyser et de « comprendre » son environnement (en termes de spectre électromagnétique)
  • Un réseau capable de raisonnement : quelle action entreprendre pour garantir une bonne communication dans un environnement donné
  • Un réseau capable de contextualiser : utiliser de l’apprentissage pour surmonter des aléas et exploiter au mieux le spectre électromagnétique
  • Un réseau capable de collaborer en travaillant avec d’autres systèmes, même nouveaux.

sc22

Pour émuler un environnement permettant de tester et d’entraîner cette intelligence artificielle, le Colosseum utilise 128 SDR (software defined radios ou radios logicielles). Ces radios sont couplées à 64 FPGAs (on va simplifier : des processeurs reconfigurables – image ci-dessous) permettant de moduler le comportement des radios logicielles pour reproduire les environnements électromagnétiques ciblés. Et tout cela dans un environnement de type cloud, permettant à plus de 30 équipes de recherche d’accéder au Colosseum (5 équipes en simultané), pour la compétition SC2.

sc24

Dotée d’un prix de 2 millions de dollars pour l’équipe gagnante, la compétition durera 3 ans, et s’achèvera donc début 2020 après trois phases, la dernière devant départager les deux meilleures équipes. Il s’agit une fois de plus de l’illustration de la créativité de l’agence, qui a souvent recours à ce type de « grand challenge » pour trouver des solutions originales et efficaces à des défis capacitaires. Pour plus d’informations, le site SC2 est ouvert et accessible en ligne: http://spectrumcollaborationchallenge.com/

brow4

Nous avions déjà mentionné dans ce blog les travaux de l’université de Copenhague sur le « deep spying » : l’espionnage faisant appel à des techniques de « Deep Learning » (apprentissage machine fondé sur l’analyse de modèles de données). En l’occurrence, les chercheurs avaient réussi à montrer que l’on pouvait exploiter les mouvements d’une montre connectée pour reconnaître et reconstituer la totalité des informations tapées par l’utilisateur. Vous pouvez retrouver cet article ici

Une nouvelle étape vient d’être franchie, avec en première ligne des chercheurs de l’université de Newcastle (ci-dessous), et cette fois-ci, la technique se fonde sur l’utilisation de votre smartphone.

brow6

Tout d’abord, il faut bien réaliser qu’un smartphone, c’est entre 18 et 25 capteurs différents – et je parle là de la majorité des smartphones du marché : gyroscopes, détection des chocs, accéléromètre, détection du vecteur de rotation, orientation, odomètre, infrarouge, champ magnétique, etc… Vous seriez surpris.

brow3

Lorsque vous le tenez en main et que vous tapez un code d’accès, par exemple, ces capteurs réagissent en créant une véritable « signature ». Bien évidemment, celle-ci dépend de votre attitude, de votre activité, de votre environnement. Mais en l’observant dans différentes conditions, il est possible « d’apprendre » votre profil. Et pour exploiter cette technique, l’attaque imaginée par l’équipe de Maryam Mehrnezhad (ci-dessous) repose sur une faille : une absence de spécifications W3C (le consortium World Wide Web) affectant la majorité des navigateurs internet.

brow5

La faille repose sur le fait que la spécification W3C actuelle permet à un code javascript inclus dans une page web d’accéder aux informations de la majorité des capteurs présents dans votre smartphone, à l’exclusion de la caméra et du GPS, et ce sans la permission expresse de l’utilisateur. Cela fonctionne via une page de navigation, ou un onglet ouvert dans un navigateur (même inactif), et même si le smartphone est verrouillé. Voici la liste ci-dessous des navigateurs affectés par cette vulnérabilité, sous Android et iOS.

brow1

L’attaque imaginée par les chercheurs s’appelle TouchSignatures.  Les chercheurs ont constitué une base de 10 utilisateurs auxquels on a demandé d’entrer un code PIN de 4 chiffres, 5 fois de suite, sur un site Internet. Ce site alimentait un réseau de neurones qui a appris à reconnaître les interactions de l’utilisateur avec le smartphone. La video ci-après montre les capteurs à l’écoute des mouvements de l’utilisateur.

C’est un peu comme reconstituer un puzzle : distinguer les mouvements de l’utilisateur quand il tient son smartphone en main, avec quels doigts, quelle inclinaison,… et repérer les invariants (on tape généralement en tenant toujours son smartphone de la même façon, avec une orientation donnée, avec les mêmes doigts, etc…).

Touch Signatures a rapidement appris à distinguer entre les mouvements « normaux » du téléphone pris en main, et les patterns caractéristiques d’un code PIN. Il a ainsi pu identifier 70% des codes PIN des utilisateurs sous Android, et 56% sous iOS. Mais le système apprenant constamment, au 5e essai il était capable d’identifier et de cracker un code PIN avec 100% de succès ( !).

brow2

Pourquoi cette faille a-t’elle été ignorée par la communauté ? Parce que le code javascript ne pouvait accéder qu’à un flux d’informations provenant des senseurs à faible débit, ce qui était perçu comme un risque faible de sécurité (« si ce n’est pas une caméra, ce n’est pas un problème »).

Ces nouveaux travaux montrent que même à faible débit, il est possible de capturer des informations permettant d’accéder aux identifiants de l’utilisateurs sans que celui-ci ne s’en aperçoive. Des résultats qui ont au moins alerté les développeurs des navigateurs, qui planchent aujourd’hui tous sur des parades, avec plus ou moins de vigueur.  En attendant, la meilleure solution (pour les smartphones qui possèdent cette fonction) c’est d’utiliser la reconnaissance de l’empreinte digitale, en espérant que celle-ci ne puisse être capturée à l’avenir… ce qui serait plus préoccupant.

wingman1

Le concept s’appelle « Loyal Wingman » est fait partie d’un programme baptisé RaiderII, et conduit par le laboratoire de recherche de l’US Air Force (Air Force Research Lab) et de la célèbre équipe « Skunkworks » de Lockheed Martin. Pour mémoire, Skunkworks est le surnom du département célèbre de Lockheed Martin dont le nom officiel est Advanced Development Programs (ADP), responsable du développement d’avions mythiques tel que le SR71 Blackbird, ou le F117. Nous avons déjà parlé de certains projets de Skunkworks comme le ARES VTOL (voir cet article)  ou le Hybrid Airship (voir celui-ci)

Le concept de « Loyal Wingman », c’est de réaliser un couplage entre un avion de chasse opéré par un pilote humain, et un avion dronisé, sans pilote à bord. L’idée est ainsi de pouvoir disposer de groupes d’UCAV (unmanned combat air vehicles, soit des drones aériens) capables de voler de concert avec des avions pilotés, et d’emporter des capacités additionnelles, notamment en termes d’armement. Le projet est destiné notamment à fournir des « équipiers robotiques » aux F-35 et F-22.

wingman4

Une nouvelle étape de ce programme a été atteinte il y a quelques jours, avec une démonstration mettant en œuvre un F16 expérimental robotisé. Selon Lockheed Martin, l’expérimentation a consisté en une conduite de mission incluant une perte de communication, une déviation par rapport au plan de vol initial, et – c’est une première – une mission de frappe contre le sol réalisée par le F16 robot en autonomie.

wingman2

L’US Air Force dispose d’un certain nombre de F16 robotisés (ci-dessus), mais jusque-là, ces derniers étaient essentiellement utilisés comme des cibles d’exercice autonomes (quand on a des sous…), une pratique héritée des F-4 Phantoms déclassés du Vietnam, utilisés de la même manière. Mais ici, on parle bien d’un avion disposant d’une IA embarquée, et capable de piloter de manière autonome, en respectant des consignes de haut niveau communiquées par son ailier humain. Un programme qui s’inscrit en toute cohérence avec la stratégie américaine du « troisième offset » dans laquelle l’intelligence artificielle et la robotique sont centrales.

offset

L’expérience s’est déroulée sur le terrain mythique de EAFB (Edwards Air Force Base), que tous les aficionados du film « l’Etoffe des Héros » (je ne peux même pas imaginer que vous ne connaissiez pas ce film, sinon filez le voir d’urgence) connaissent. Elle visait principalement à démontrer la capacité de l’ailier automatique à s’adapter à son environnement, et en particulier à des menaces simulées dynamiques, dans le cadre d’une mission de combat air-sol.

wingman3

Il s’agit de la seconde expérimentation (la première, Raider I, était centrée sur le vol en essaim et l’évitement de collision). Elle a montré la capacité du F16 robot à poursuivre sa mission en cohérence avec son ailier humain, et à réaliser la frappe contre le sol. Elle a également démontré la pertinence de l’environnement logiciel embarqué OMS (open mission system développé par l’US Air Force), capable de gérer des composants développés par des fournisseurs très différents, et rapidement intégrés au sein d’une architecture cohérente, une fonction qui sera déterminante dans la capacité à développer de futurs modules logiciels pour un tel programme.

Au-delà, cette expérimentation montre la capacité à s’appuyer sur un système autonome, assistant  le pilote, pour décharger ce dernier de tâches cognitives prenantes, en lui permettant de se focaliser sur la gestion de sa mission globale. Et non, on ne parle pas d’un « avion de combat intelligent » mais bien d’un système adaptatif et autonome dans le cadre d’une mission précise, et totalement subordonné au pilote. Ce n’est pas demain qu’un avion robotisé sera qualifié chef de patrouille !

IMG_20170328_134331 - Copie

Suite du compte-rendu de ma visite au salon SOFINS 2017, en commençant par un produit qui avait d’ailleurs été déjà présenté au forum Innovation de la DGA (photo ci-dessous) : SESAME II, une pile à combustible pour les fantassins. Conçue dans le cadre d’un partenariat (dont l’acronyme signifie Source d’Energie pour Systèmes Autonomes Miniaturisés) entre la DGA, SAFRAN et le CEA LITEN, il s’agit d’un système d’énergie autonome reposant sur une pile à hydrogène.

cover-r4x3w1000-583713484e2c5-sesame 2

Le système est composé d’un cœur de pile miniaturisé, permettant de convertir l’hydrogène provenant d’une cartouche de liquide en électricité. La gestion de la puissance est réalisée par une batterie lithium-ion intelligente, permettant de gérer les appels de courant, ainsi que la puissance requise au démarrage. Mais la véritable originalité, c’est de pouvoir générer l’hydrogène nécessaire à la demande, par une réaction d’hydrolyse (pour être précis : hydrolyse de borohydrure). L’hydrogène n’est donc pas stocké, ce qui poserait pas mal de problèmes notamment opérationnels, mais généré en fonction du besoin, à partir d’une cartouche. Les avantages : une réduction de 50% de la masse par rapport aux batteries conventionnelles emportées par un combattant FELIN, soit 2kg en moins pour 3 jours d’utilisation autonome (2kg 100 à comparer aux 4,2 kg de batteries conventionnelles).

IMG_20170328_122139 - Copie

Trois cartouches permettant d’assurer une mission de 72h. La puissance délivrée est de 360Wh (12-15W), opérant dans une large gamme de conditions, de -20°C à +45°C, le système intégrant des capacités antigel ainsi que des capacités de réchauffement.  Une innovation à suivre, contribuant significativement à allègement du combattant. Cerise sur le gâteau : en cas de tir dans la batterie, l’hydrogène n’étant pas stocké mais généré, il n’y a aucune conséquence sur le système (pas d’explosion, pas d’émanation).

IMG_20170328_134326 - Copie

Autre innovation rencontrée, le drone hybride EZ|MANTA de la société EZNOV. Il s’agit d’un drone VTOL (Décollage & atterrissage vertical) d’une autonomie de 45 minutes, muni de 3 moteurs directionnels indépendants. Conçu intégralement en France, ce qui est suffisamment rare pour être cité, le système intègre… un smartphone permettant notamment de planifier une mission de cartographie. Les zones interdites et autorisées sont entrées dans le smartphone ainsi que les autres paramètres (choix de l’altitude de vol et du recouvrement des clichés, plan de vol…).

IMG_20170328_134357 - Copie

Le smartphone est ensuite intégré dans le drone et communique directement avec l’autopilote. Le drone emporte une caméra vidéo UHD 4k et un appareil photo de 12MP, une caméra thermique QVGA étant proposée en option. Après le vol, le système génère automatiquement une carte globale géo-référencée. Le drone lui-même est conçu en mousse de polypropylène, autour d’un châssis en fibre de carbone, et intègre un capteur d’attitude laser LIDAR. Voici une vidéo de présentation du produit :

Il s’agit donc d’un système de cartographie simple et intuitif, permettant de planifier et de réaliser une campagne de cartographie en effectuant un vol à plat, stabilisé automatiquement, et permettant d’optimiser la qualité photo des clichés. Et Made In France, qui plus est…

Parmi les startups présentes au SOFINS, parlons maintenant de la société UNIRIS qui présentait une solution innovante d’authentification biométrique couplée à une nouvelle génération de blockchain. UNIRIS a présenté ce curieux objet (ci-dessous), destiné à être couplé à un smartphone ou à un terminal mobile, et dans lequel l’utilisateur place son doigt.

IMG_20170330_121615 - Copie

Le système est alors capable de reconnaître l’utilisateur de façon unique, le capteur réalisant une reconnaissance 3D des réseaux veineux et nerveux du doigt (si, si), une analyse des empreintes digitales latérales, une reconnaissance de la transparence de la peau à l’infrarouge ainsi que l’émission intrinsèque de chaleur du doigt, … Une batterie d’analyse donc, permettant de caractériser sans aucune ambiguité un utilisateur donné (d’ailleurs plus de 6 brevets ont déjà été déposés par la jeune équipe d’UNIRIS).

Autre avantage : le vieillissement, et donc la transformation des caractéristiques biométriques et les évolutions morphologiques de l’utilisateur au cours du temps sont pris en compte.

uniris3

Un outil qui m’a fait une assez forte impression, car fondé sur une véritable approche scientifique et intégrée de l’authentification et non une nouvelle instanciation de recettes connues depuis longtemps. Avec des applications qui vont de l’authentification classique sur un site ou une messagerie au vote électronique ou au contrôle de la gestion des données. Des thèmes portés par une jeune équipe, et une start-up à soutenir avec une véritable et originale approche de l’authentification biométrique.

gicat1

Pour une fois, je me fais le porte-parole d’une action dans laquelle je suis directement impliqué, et que je crois véritablement bénéfique pour le monde de l’innovation de défense en France. L’idée est d’accompagner les start-up françaises dans le monde de la défense terrestre et aéroterrestre et de la sécurité, et comme vous le constaterez, la première « promotion » est de qualité!

Vous trouverez ci-dessous le communiqué officiel du GICAT (pour mémoire : groupement des industries de défense et de sécurité terrestres et aéroterrestres) que je reproduis directement. Pour toute information, adressez-vous au GICAT (ou à moi, je relaierai).

Le GICAT lance officiellement son nouveau label “Generate” permettant à des start-up françaises de comprendre et d’intégrer le monde de la défense et de la sécurité.

L’ambition première de ce label est de devenir un HUB d’échanges afin de promouvoir l’innovation au sein du secteur de la Défense et de la Sécurité terrestres et aéroterrestres. Ces industriels développent du matériel de pointe, performant, gage d’une grande technicité. Les start-up ignorent parfois qu’elles sont à l’origine de technologies pouvant avoir une utilité dans le monde de la défense et de la sécurité. Rejoindre « Generate » by GICAT, c’est leur offrir de nouvelles opportunités et leur assurer un accompagnement sur mesure afin de se développer.

Les objectifs de ce label sont les suivants:

  • Promouvoir une démarche d’intelligence collective entre acteurs de la défense & sécurité et start-up issues d’autres secteurs
  • Participer à l’excellence française en matière d’innovation et en faire bénéficier le secteur défense & sécurité
  • Mettre en avant l’importance de l’innovation au sein de l’industrie de défense et de sécurité terrestres et aéroterrestres

Afin de faciliter l’intégration de ces start-up, le GICAT mettra à leur disposition de nombreux services comme :

  • Apporter une connaissance globale des mécanismes et acteurs (institutionnels, industriels, scientifiques, etc.)
  • Organiser des rencontres avec les acteurs de la défense & sécurité : forces de sécurité, forces armées, DGA, centres de recherche, etc.
  • Mettre en relation ces start-up avec des industriels membres du GICAT souhaitant échanger et coopérer dans une démarche d’innovation
  • Accompagner ces start-up grâce à une système de parrainage assuré par des membres du groupement qui leur apporteront leur connaissance et retours d’expérience.

Le 17 mars 2017, un jury composé de la délégation du GICAT, de présidents de commissions et d’industriels – Emmanuel Chiva (AGUERIS), Jérôme Diacre (ELNO) et Yannick Rolland (ATOS) – ont retenu 5 start-up pour faire partie de la première « promo » de Generate :

gicat2

Née d’un projet de R&D personnel en 2010, Aleph-Networks est née en février 2012 autour du développement de deux technologies innovantes :

  • GrayMatter, une technologie de collecte et structuration de données, adressant les problématiques Big Data
  • SafetyGate, une technologie de réseaux distribués (p2p) permettant de répondre aux risques induits par la transmission d’informations sensibles.

gicat3

Solution complète anti-drone, CerbAir permet de détecter, localiser et neutraliser les drones malveillants avant que ceux-ci ne commettent leur méfait. Issues de la recherche française, leurs technologies d’analyse radiofréquence et de reconnaissance d’image protègent contre tous les drones civils. Enfin, le système d’alerte et de levée de doute en temps réel permet de neutraliser le pouvoir de nuisance des intrus indésirables via le recours à diverses contremesures telles que le brouillage ou le lance-filet.

gicat4

Linkurious Enterprise est une plateforme de visualisation et d’analyse big data qui permet de comprendre les connections cachées dans les données. Sa technologie est déjà utilisée par le ministère français des Finances pour la détection de la fraude à la TVA, par plusieurs banques pour améliorer la détection de blanchiment d’argent, et sur des questions de sécurité informatique. Linkurious collabore même avec la NASA, pour rendre l’information d’une de ses bases de documents facilement utilisable, en mettant au point un système plus adapté que les moteurs de recherche.

gicat5

Le premier correcteur automatique de calculs – Aujourd’hui, pour corriger les déviations numériques, les ingénieurs testent le plus grand nombre de manière possible d’écrire chaque formule pour trouver la meilleure et ensuite tester si celle-ci est suffisamment stable et précise… Mais il est parfois difficile de tout tester dans le temps imparti. Numalis valide les programmes et multiplie leur précision tout en améliorant leurs performances.

gicat6

Sterblue met en oeuvre des solutions d’inspection automatique de sites sensibles autour de trois technologies principales :

  • Perception: algorithme de navigation autonome aux abords des structures complexes
  • Curiosity : algorithme d’intelligence artificielle (Deep Learning) permettant la détection automatique de défauts dans les clôtures/intrusion
  • Cloud Sterblue permettant de stocker et visualiser l’intégralité des données traitées sur différentes interfaces utilisateurs.

 

 

rambo7

Bon, pour une fois, je me suis fait coiffer sur le poteau par l’excellent blog OPEX360 qui a publié un article sur le même sujet. Du coup, je me permets quand même de publier celui-ci, qui complète l’analyse d’OPEX360 – mais voici également un lien vers leur article. Il faut être beau joueur.

Nous avons déjà parlé à maintes reprises de la fabrication additive (nom compliqué pour l’impression 3D), en rappelant qu’elle permettait aujourd’hui de réaliser des objets complexes, notamment des armes. D’un côté (le bon) cela permet d’envisager des unités de logistique avancées sur le théâtre d’opérations, capables de réparer, modifier, ajuster des composants ou pièces détachées. D’un autre (le mauvais), cela donne la capacité à ceux « d’en face » de disposer de moyens de réaliser des armes efficaces et intraçables. Rappelons qu’aujourd’hui, on n’imprime pas que du plastique, mais également du métal (titane, aluminium…) et même bientôt des organes…

L’US Army vient encore une fois d’enfoncer le clou (avec un très gros marteau), en annonçant le test réussi du RAMBO (on ne peut pas dire qu’ils n’ont pas d’humour) pour Rapid Additively Manufactured Ballistics Ordnance (!) soit arme balistique rapidement fabriquée par impression 3D. Oui, il fallait trouver l’acronyme…

rambo1

Il s’agit du résultat d’un projet de recherche collaboratif de 6 mois qui associait le RDECOM (Army Research, Development, and Engineering Command) le U.S. Army Manufacturing Technology (ManTech) Program et AmericaMakes, une entité visant à accélérer le développement des technologies de fabrication additive. Le défi était réel : le RAMBO est un fusil lance-grenades de 40mm fondé sur le modèle du M203A1, et composé de 50 pièces, qui ont toutes été fabriquées en utilisant l’impression 3D (à l’exception des ressorts). Et le but du programme n’était pas simplement de montrer que c’était possible, mais essentiellement de prouver la faisabilité d’accélérer considérablement le processus de transition entre le prototype de laboratoire et le produit utilisable sur le terrain.

rambo2

Pour le réaliser, différentes technologies d’impression 3D ont été utilisées. Ainsi, le canon de l’arme a été imprimé en 70h (plus 5h de finition), en utilisant la technique dite DMLS pour Direct Metal Laser Sintering (Frittage Laser Direct Metal en français) afin de réaliser l’impression en aluminium. Cette technique repose sur la fusion successive par laser de couches de poudre de métal, en l’occurrence de l’aluminium. C’est une technologie éprouvée, utilisée déjà en contexte de production – la vidéo ci-dessous illustre la technique.

 

L’arme est donc réalisée par une combinaison de différentes techniques d’impression 3D (ainsi, la gâchette est réalisée en alliage d’acier, alors que le canon est en aluminium). L’intérêt est également de pouvoir, directement pendant la phase de fabrication, générer le rayage interne du canon en même temps que ce dernier est « imprimé ».

rambo3

L’US Army a ainsi procédé à 15 tirs de test sans aucune dégradation de l’arme, et avec une vitesse initiale (sortie de la munition de l’arme) égale à 95% de celle de l’original. Le test a eu lieu à Picatinny Arsenal (New Jersey) en utilisant un déclenchement à distance (faut pas charrier quand même).Mais ce n’est pas tout : l’US Army a demandé pour ce test que les munitions elles-mêmes soient également imprimées par fabrication additive.

rambo4

Pour cela, deux autres centres de recherche du RDECOM ont été sollicités : le US Army Research Lab (ARL) ainsi que le US Army Edgewood Chemical and Biological Center (ECBC). La munition considérée était fondée sur la grenade d’entraînement M781 40 mm, utilisée pour ce même lance-grenade. C’est une munition d’entraînement à basse vélocité, qui produit une signature orangée à l’impact.

rambo6

Le processus s’est révélé complexe. L’enveloppe de la munition a bien été facilement imprimée en nylon et fibre de verre. Mais le corps du projectile d’entraînement, en zinc, a dû être imprimé par un autre procédé, le processus DMLS ne fonctionnant pas. Ils ont utilisé une imprimante 3D pour imprimer un moule en cire, et par la technique de la cire perdue, ont réussi à obtenir un moule en plastique correspondant au corps du projectile. Il a ensuite suffi de verser de la poudre de zinc en fusion pour obtenir la pièce recherchée.

rambo5

L’essai est visible dans la vidéo ci-dessous, ainsi que la fabrication de l’arme et des munitions:

Cette expérience montre l’intérêt d’un processus optimisé de fabrication additive pour accélérer la mise en service d’un prototype (tout en diminuant les coûts de fabrication). Cette démonstration s’avère être un succès. Reste bien évidemment à tester la résistance de l’arme, sa durée dans le temps, sa robustesse lors d’une utilisation réelle (les tests correspondants sont en cours).

Mais attention également à ne pas laisser partir « dans la nature » les plans de conception CAO de l’arme. Car demain, de tels processus seront démocratisés, et de nouveaux équipements moins onéreux seront à la portée d’un plus grand nombre. La vigilance s’impose donc, à la fois pour éviter que nos ennemis ne puissent « imprimer » leurs propres armes, mais aussi pour prévenir toute tentative d’intrusion qui permettrait à des hackers d’introduire d’invisibles défauts dans les armes ainsi générées. La course continue…

mob2

Qu’il s’agisse de bateaux militaires ou de navires civils (en particulier de navires de croisière), la détection de la chute d’un passager par-dessus bord devient une question plus que prioritaire dans le monde naval. A l’heure où se tient à Paris le salon Euromaritime, voici donc un petit zoom sur une technologie prometteuse baptisée MOBtronic, développée par MARSS, une société monégasque, technologie qui m’a été récemment présentée. Un petit mot en premier lieu sur le contexte.

En 2010, les US Coast Guards ont mis en vigueur le CVSSA Cruise Vessels Security and Safety Act pour combattre le crime à bord des navires de croisière et mettre en place un suivi de ce phénomène en toute transparence. Les navires de croisières soumis cette juridiction sont ceux qui peuvent accueillir plus de 250 passagers pour une navigation hauturière et les embarquent ou les débarquent aux Etats-Unis (soit environ 150 navires dont la moitié sous pavillon étranger). Le CVSSA mentionne que ces navires « doivent intégrer une technologie qui puisse être utilisée pour capturer les images des passagers ou détecter les passagers qui sont tombés par-dessus bord dans la mesure où une telle technologie est disponible ». Cette formulation peu contraignante a conduit la plupart des armateurs à se reposer sur leur circuit de vidéosurveillance et à considérer que la technologie n’était finalement pas disponible.

mob8

Pourtant, de récentes tragédies (par exemple le décès de Cameron Smook, un étudiant de 21 ans passé par-dessus-bord lors d’un voyage aux Bahamas à bord du Carnival Glory, dont les images de la chute ont été capturées par la vidéosurveillance) montrent qu’il est nécessaire de disposer d’une technologie fiable, et surtout rapide et automatisée. Le nombre d’incidents à bord des navires de croisière est sujet à controverse (on parle d’une vingtaine de cas par an, mais les associations de victimes et les armateurs ne s’accordent pas sur les chiffres), mais une chose est sûre : entre les cas connus dans le monde civil et les accidents non documentés à bord des bateaux militaires, une technologie de détection automatique n’est plus un luxe mais une nécessité.

mob1

Car la vidéosurveillance a ses limites : les caméras doivent être supervisées à tout moment, elles ne sont pas placées aux endroits les plus susceptibles de constituer un risque, et ne fournissent généralement que des images destinées à fournir des informations à la police après que l’incident a eu lieu.

Le système MOBtronic de MARSS a pour objectif de déclencher automatiquement, sans supervision humaine, une alarme dès qu’un accident se produit.  MOB étant l’abréviation en anglais de « man over board » (homme à la mer), le système est conçu pour automatiquement détecter, qualifier l’accident, alerter l’équipage dès qu’un humain passe par-dessus bord, tout en conservant une capacité de suivi (« tracking ») afin de localiser l’homme à la mer et de faciliter les opérations de secours.

mob7

Le système repose sur le placement de stations multicapteurs disposées de manière optimisée sur le pourtour du bâtiment à surveiller. L’idée, c’est de maximiser la redondance, c’est-à-dire de s’assurer que toute chute puisse au minimum être observée par 2 stations. Chacune de ces stations (durcies pour pouvoir résister aux conditions de mer, aux chocs, aux vibrations) intègre des micro-radars et des dispositifs de capture d’image (en multispectral). Outre la conception de ces stations, le système repose sur des algorithmes propriétaires de traitement du signal afin de qualifier la détection de manière optimale. C’est d’ailleurs toujours la problématique de ce type de systèmes : ne pas faire de silence (détecter la quasi-totalité des incidents) mais également minimiser le bruit (ne pas alerter l’équipage à tout bout de champ, ce qui le distrairait de ses tâches principales).

mob6

La décision de déclencher une alarme repose ici sur une hiérarchie à cinq niveaux : analyse des signaux radars (détection et suivi de la chute), confirmation de la détection radar par d’autres senseurs indépendants, analyse comportementale de l’objet (fondée sur la vitesse et la direction de chute, la forme de l’objet…) et confirmation par une analyse image fondée sur la signature infrarouge de l’objet (ce qui permet de détecter les signatures thermiques caractéristiques d’un humain). A ce point, une alarme est déclenchée, et l’équipage doit confirmer la réalité de l’accident en rejouant les images de capture vidéo. Pendant ce temps, le système continue de suivre l’objet, ce qui permet (dans le cas où il s’agit bien d’un homme à la mer) de diriger les opérations de sauvetage. Le système peut également s’interfacer avec les systèmes de gestion de la passerelle. La localisation du point de chute est précise au mètre près. L’acquisition des données et leur analyse sont en partie réalisées localement, par chaque station.

mob3

L’idée vraiment originale, c’est d’arriver à coupler détection radar et analyse d’image, ce qui permet de discriminer entre, par exemple, la chute d’un adulte, d’un enfant, ou le plongeon d’un oiseau de mer. Les concepteurs ont ainsi maximisé l’efficacité du système en adoptant une approche intégrée multicapteurs, là où les systèmes concurrents ont tendance à ne reposer que sur une seule et unique technologie.

mob5

Une intégration de technologies originale, qui a déjà montré son efficacité impressionnante lors des tests : 95% de probabilité de détection (avec un taux d’activation erronée inférieur à 0,3 sur une période de 24h). La campagne de test a déjà accumulé des données sur 22 000 heures de fonctionnement, les tests ayant été réalisés sur des mannequins (plus de 1400 tests) mais également sur des humains « en saut à l’élastique » (200 tests), et ce dans toutes les conditions (jour, nuit, mer calme ou agitée, météo clémente ou tempête). Les chutes se produisant dans toutes les configurations, le système a montré qu’il restait fiable pour des mers agitées (jusqu’à 7) et des vitesses de vents de 50 nœuds (soit environ 100km/h).

mob4

Un système réellement novateur, donc, qui pourrait être adapté à d’autres besoins : détection d’incendie, tentative d’abordage (lutte anti-piraterie), ou même surveillance d’un périmètre, dans des applications militaires terrestres.

Les lecteurs intéressés peuvent directement m’écrire, je transmettrai aux concepteurs (je rassure, je n’ai aucun lien commercial avec la société).