sc26

Encore un projet (de plus) porté par la (désormais trop) récurrente DARPA. Le Colosseum (Colisée en anglais) porte bien son nom : implanté dans le Maryland au sein du Johns Hopkins University Applied Physics Laboratory (APL), il s’agit d’un nouvel équipement qui vient d’être mis en service. Et effectivement, il est impressionnant.

Son objectif : constituer un environnement expérimental permettant de créer et d’étudier de nouveaux concepts pour la gestion de l’accès au spectre électromagnétique civil et militaire. Très concrètement, il s’agit d’une pièce de 6mx10m, remplie de racks de serveurs. Pas vraiment impressionnant, du moins sur le plan physique. Dans le monde virtuel, c’est autre chose.

sc23

Car le Colosseum est capable d’émuler plusieurs dizaines de milliers d’interactions possibles entre des centaines de terminaux sans fils : radios civiles et militaires, objets communicants, téléphones portables… C’est comme si l’on se trouvait dans un environnement d’un km2, empli d’objets communiquant simultanément et interagissant. Pour être encore plus clair, le Colosseum fait « croire » à ces radios qu’elles sont immergées dans un environnement donné, fixé par l’utilisateur : centre urbain, théâtre d’opérations, centre commercial, forêt vierge ou désert… Et il peut simuler plus de 65000 interactions entre 256 terminaux connectés, chaque terminal opérant comme s’il disposait de 100MHz de bande passante. En tout, le Colosseum manipule donc 25GHz de bande passante. Chaque seconde (oui, seconde), le Colosseum gère 52 Teraoctets de données. Pas mal…

Le Colosseum est une pièce centrale d’un projet baptisé SC2 pour Spectrum Collaboration Challenge, une compétition visant à changer radicalement la manière dont les futurs systèmes de communication sont conçus.

sc21

En l’occurrence, au lieu de pré-programmer ces futurs systèmes (comme cela est réalisé aujourd’hui dans la totalité des cas), le projet SC2 vise à développer des nouveaux systèmes de communication adaptatifs, capables d’apprendre en temps réel en fonction de l’environnement, de leur historique d’emploi, et des interactions avec les autres systèmes de communication.

sc27

L’idée est d’utiliser des technologies d’intelligence artificielle pour optimiser la stratégie de communication en temps réel : exploiter les failles dans le spectre électromagnétique, établir des partages de spectre, mettre en place des stratégies collaboratives permettant d’assurer la continuité et l’efficacité des communications entre plusieurs radios ou objets connectés. Les critères pour ce réseau radio « intelligent » de nouvelle génération (donc les règles du challenge SC2) sont de développer :

  • Un réseau radio reconfigurable
  • Un réseau capable d’observer, d’analyser et de « comprendre » son environnement (en termes de spectre électromagnétique)
  • Un réseau capable de raisonnement : quelle action entreprendre pour garantir une bonne communication dans un environnement donné
  • Un réseau capable de contextualiser : utiliser de l’apprentissage pour surmonter des aléas et exploiter au mieux le spectre électromagnétique
  • Un réseau capable de collaborer en travaillant avec d’autres systèmes, même nouveaux.

sc22

Pour émuler un environnement permettant de tester et d’entraîner cette intelligence artificielle, le Colosseum utilise 128 SDR (software defined radios ou radios logicielles). Ces radios sont couplées à 64 FPGAs (on va simplifier : des processeurs reconfigurables – image ci-dessous) permettant de moduler le comportement des radios logicielles pour reproduire les environnements électromagnétiques ciblés. Et tout cela dans un environnement de type cloud, permettant à plus de 30 équipes de recherche d’accéder au Colosseum (5 équipes en simultané), pour la compétition SC2.

sc24

Dotée d’un prix de 2 millions de dollars pour l’équipe gagnante, la compétition durera 3 ans, et s’achèvera donc début 2020 après trois phases, la dernière devant départager les deux meilleures équipes. Il s’agit une fois de plus de l’illustration de la créativité de l’agence, qui a souvent recours à ce type de « grand challenge » pour trouver des solutions originales et efficaces à des défis capacitaires. Pour plus d’informations, le site SC2 est ouvert et accessible en ligne: http://spectrumcollaborationchallenge.com/

brow4

Nous avions déjà mentionné dans ce blog les travaux de l’université de Copenhague sur le « deep spying » : l’espionnage faisant appel à des techniques de « Deep Learning » (apprentissage machine fondé sur l’analyse de modèles de données). En l’occurrence, les chercheurs avaient réussi à montrer que l’on pouvait exploiter les mouvements d’une montre connectée pour reconnaître et reconstituer la totalité des informations tapées par l’utilisateur. Vous pouvez retrouver cet article ici

Une nouvelle étape vient d’être franchie, avec en première ligne des chercheurs de l’université de Newcastle (ci-dessous), et cette fois-ci, la technique se fonde sur l’utilisation de votre smartphone.

brow6

Tout d’abord, il faut bien réaliser qu’un smartphone, c’est entre 18 et 25 capteurs différents – et je parle là de la majorité des smartphones du marché : gyroscopes, détection des chocs, accéléromètre, détection du vecteur de rotation, orientation, odomètre, infrarouge, champ magnétique, etc… Vous seriez surpris.

brow3

Lorsque vous le tenez en main et que vous tapez un code d’accès, par exemple, ces capteurs réagissent en créant une véritable « signature ». Bien évidemment, celle-ci dépend de votre attitude, de votre activité, de votre environnement. Mais en l’observant dans différentes conditions, il est possible « d’apprendre » votre profil. Et pour exploiter cette technique, l’attaque imaginée par l’équipe de Maryam Mehrnezhad (ci-dessous) repose sur une faille : une absence de spécifications W3C (le consortium World Wide Web) affectant la majorité des navigateurs internet.

brow5

La faille repose sur le fait que la spécification W3C actuelle permet à un code javascript inclus dans une page web d’accéder aux informations de la majorité des capteurs présents dans votre smartphone, à l’exclusion de la caméra et du GPS, et ce sans la permission expresse de l’utilisateur. Cela fonctionne via une page de navigation, ou un onglet ouvert dans un navigateur (même inactif), et même si le smartphone est verrouillé. Voici la liste ci-dessous des navigateurs affectés par cette vulnérabilité, sous Android et iOS.

brow1

L’attaque imaginée par les chercheurs s’appelle TouchSignatures.  Les chercheurs ont constitué une base de 10 utilisateurs auxquels on a demandé d’entrer un code PIN de 4 chiffres, 5 fois de suite, sur un site Internet. Ce site alimentait un réseau de neurones qui a appris à reconnaître les interactions de l’utilisateur avec le smartphone. La video ci-après montre les capteurs à l’écoute des mouvements de l’utilisateur.

C’est un peu comme reconstituer un puzzle : distinguer les mouvements de l’utilisateur quand il tient son smartphone en main, avec quels doigts, quelle inclinaison,… et repérer les invariants (on tape généralement en tenant toujours son smartphone de la même façon, avec une orientation donnée, avec les mêmes doigts, etc…).

Touch Signatures a rapidement appris à distinguer entre les mouvements « normaux » du téléphone pris en main, et les patterns caractéristiques d’un code PIN. Il a ainsi pu identifier 70% des codes PIN des utilisateurs sous Android, et 56% sous iOS. Mais le système apprenant constamment, au 5e essai il était capable d’identifier et de cracker un code PIN avec 100% de succès ( !).

brow2

Pourquoi cette faille a-t’elle été ignorée par la communauté ? Parce que le code javascript ne pouvait accéder qu’à un flux d’informations provenant des senseurs à faible débit, ce qui était perçu comme un risque faible de sécurité (« si ce n’est pas une caméra, ce n’est pas un problème »).

Ces nouveaux travaux montrent que même à faible débit, il est possible de capturer des informations permettant d’accéder aux identifiants de l’utilisateurs sans que celui-ci ne s’en aperçoive. Des résultats qui ont au moins alerté les développeurs des navigateurs, qui planchent aujourd’hui tous sur des parades, avec plus ou moins de vigueur.  En attendant, la meilleure solution (pour les smartphones qui possèdent cette fonction) c’est d’utiliser la reconnaissance de l’empreinte digitale, en espérant que celle-ci ne puisse être capturée à l’avenir… ce qui serait plus préoccupant.

wingman1

Le concept s’appelle « Loyal Wingman » est fait partie d’un programme baptisé RaiderII, et conduit par le laboratoire de recherche de l’US Air Force (Air Force Research Lab) et de la célèbre équipe « Skunkworks » de Lockheed Martin. Pour mémoire, Skunkworks est le surnom du département célèbre de Lockheed Martin dont le nom officiel est Advanced Development Programs (ADP), responsable du développement d’avions mythiques tel que le SR71 Blackbird, ou le F117. Nous avons déjà parlé de certains projets de Skunkworks comme le ARES VTOL (voir cet article)  ou le Hybrid Airship (voir celui-ci)

Le concept de « Loyal Wingman », c’est de réaliser un couplage entre un avion de chasse opéré par un pilote humain, et un avion dronisé, sans pilote à bord. L’idée est ainsi de pouvoir disposer de groupes d’UCAV (unmanned combat air vehicles, soit des drones aériens) capables de voler de concert avec des avions pilotés, et d’emporter des capacités additionnelles, notamment en termes d’armement. Le projet est destiné notamment à fournir des « équipiers robotiques » aux F-35 et F-22.

wingman4

Une nouvelle étape de ce programme a été atteinte il y a quelques jours, avec une démonstration mettant en œuvre un F16 expérimental robotisé. Selon Lockheed Martin, l’expérimentation a consisté en une conduite de mission incluant une perte de communication, une déviation par rapport au plan de vol initial, et – c’est une première – une mission de frappe contre le sol réalisée par le F16 robot en autonomie.

wingman2

L’US Air Force dispose d’un certain nombre de F16 robotisés (ci-dessus), mais jusque-là, ces derniers étaient essentiellement utilisés comme des cibles d’exercice autonomes (quand on a des sous…), une pratique héritée des F-4 Phantoms déclassés du Vietnam, utilisés de la même manière. Mais ici, on parle bien d’un avion disposant d’une IA embarquée, et capable de piloter de manière autonome, en respectant des consignes de haut niveau communiquées par son ailier humain. Un programme qui s’inscrit en toute cohérence avec la stratégie américaine du « troisième offset » dans laquelle l’intelligence artificielle et la robotique sont centrales.

offset

L’expérience s’est déroulée sur le terrain mythique de EAFB (Edwards Air Force Base), que tous les aficionados du film « l’Etoffe des Héros » (je ne peux même pas imaginer que vous ne connaissiez pas ce film, sinon filez le voir d’urgence) connaissent. Elle visait principalement à démontrer la capacité de l’ailier automatique à s’adapter à son environnement, et en particulier à des menaces simulées dynamiques, dans le cadre d’une mission de combat air-sol.

wingman3

Il s’agit de la seconde expérimentation (la première, Raider I, était centrée sur le vol en essaim et l’évitement de collision). Elle a montré la capacité du F16 robot à poursuivre sa mission en cohérence avec son ailier humain, et à réaliser la frappe contre le sol. Elle a également démontré la pertinence de l’environnement logiciel embarqué OMS (open mission system développé par l’US Air Force), capable de gérer des composants développés par des fournisseurs très différents, et rapidement intégrés au sein d’une architecture cohérente, une fonction qui sera déterminante dans la capacité à développer de futurs modules logiciels pour un tel programme.

Au-delà, cette expérimentation montre la capacité à s’appuyer sur un système autonome, assistant  le pilote, pour décharger ce dernier de tâches cognitives prenantes, en lui permettant de se focaliser sur la gestion de sa mission globale. Et non, on ne parle pas d’un « avion de combat intelligent » mais bien d’un système adaptatif et autonome dans le cadre d’une mission précise, et totalement subordonné au pilote. Ce n’est pas demain qu’un avion robotisé sera qualifié chef de patrouille !

IMG_20170328_134331 - Copie

Suite du compte-rendu de ma visite au salon SOFINS 2017, en commençant par un produit qui avait d’ailleurs été déjà présenté au forum Innovation de la DGA (photo ci-dessous) : SESAME II, une pile à combustible pour les fantassins. Conçue dans le cadre d’un partenariat (dont l’acronyme signifie Source d’Energie pour Systèmes Autonomes Miniaturisés) entre la DGA, SAFRAN et le CEA LITEN, il s’agit d’un système d’énergie autonome reposant sur une pile à hydrogène.

cover-r4x3w1000-583713484e2c5-sesame 2

Le système est composé d’un cœur de pile miniaturisé, permettant de convertir l’hydrogène provenant d’une cartouche de liquide en électricité. La gestion de la puissance est réalisée par une batterie lithium-ion intelligente, permettant de gérer les appels de courant, ainsi que la puissance requise au démarrage. Mais la véritable originalité, c’est de pouvoir générer l’hydrogène nécessaire à la demande, par une réaction d’hydrolyse (pour être précis : hydrolyse de borohydrure). L’hydrogène n’est donc pas stocké, ce qui poserait pas mal de problèmes notamment opérationnels, mais généré en fonction du besoin, à partir d’une cartouche. Les avantages : une réduction de 50% de la masse par rapport aux batteries conventionnelles emportées par un combattant FELIN, soit 2kg en moins pour 3 jours d’utilisation autonome (2kg 100 à comparer aux 4,2 kg de batteries conventionnelles).

IMG_20170328_122139 - Copie

Trois cartouches permettant d’assurer une mission de 72h. La puissance délivrée est de 360Wh (12-15W), opérant dans une large gamme de conditions, de -20°C à +45°C, le système intégrant des capacités antigel ainsi que des capacités de réchauffement.  Une innovation à suivre, contribuant significativement à allègement du combattant. Cerise sur le gâteau : en cas de tir dans la batterie, l’hydrogène n’étant pas stocké mais généré, il n’y a aucune conséquence sur le système (pas d’explosion, pas d’émanation).

IMG_20170328_134326 - Copie

Autre innovation rencontrée, le drone hybride EZ|MANTA de la société EZNOV. Il s’agit d’un drone VTOL (Décollage & atterrissage vertical) d’une autonomie de 45 minutes, muni de 3 moteurs directionnels indépendants. Conçu intégralement en France, ce qui est suffisamment rare pour être cité, le système intègre… un smartphone permettant notamment de planifier une mission de cartographie. Les zones interdites et autorisées sont entrées dans le smartphone ainsi que les autres paramètres (choix de l’altitude de vol et du recouvrement des clichés, plan de vol…).

IMG_20170328_134357 - Copie

Le smartphone est ensuite intégré dans le drone et communique directement avec l’autopilote. Le drone emporte une caméra vidéo UHD 4k et un appareil photo de 12MP, une caméra thermique QVGA étant proposée en option. Après le vol, le système génère automatiquement une carte globale géo-référencée. Le drone lui-même est conçu en mousse de polypropylène, autour d’un châssis en fibre de carbone, et intègre un capteur d’attitude laser LIDAR. Voici une vidéo de présentation du produit :

Il s’agit donc d’un système de cartographie simple et intuitif, permettant de planifier et de réaliser une campagne de cartographie en effectuant un vol à plat, stabilisé automatiquement, et permettant d’optimiser la qualité photo des clichés. Et Made In France, qui plus est…

Parmi les startups présentes au SOFINS, parlons maintenant de la société UNIRIS qui présentait une solution innovante d’authentification biométrique couplée à une nouvelle génération de blockchain. UNIRIS a présenté ce curieux objet (ci-dessous), destiné à être couplé à un smartphone ou à un terminal mobile, et dans lequel l’utilisateur place son doigt.

IMG_20170330_121615 - Copie

Le système est alors capable de reconnaître l’utilisateur de façon unique, le capteur réalisant une reconnaissance 3D des réseaux veineux et nerveux du doigt (si, si), une analyse des empreintes digitales latérales, une reconnaissance de la transparence de la peau à l’infrarouge ainsi que l’émission intrinsèque de chaleur du doigt, … Une batterie d’analyse donc, permettant de caractériser sans aucune ambiguité un utilisateur donné (d’ailleurs plus de 6 brevets ont déjà été déposés par la jeune équipe d’UNIRIS).

Autre avantage : le vieillissement, et donc la transformation des caractéristiques biométriques et les évolutions morphologiques de l’utilisateur au cours du temps sont pris en compte.

uniris3

Un outil qui m’a fait une assez forte impression, car fondé sur une véritable approche scientifique et intégrée de l’authentification et non une nouvelle instanciation de recettes connues depuis longtemps. Avec des applications qui vont de l’authentification classique sur un site ou une messagerie au vote électronique ou au contrôle de la gestion des données. Des thèmes portés par une jeune équipe, et une start-up à soutenir avec une véritable et originale approche de l’authentification biométrique.

shark4

Même si son nom évoque les prédateurs des profondeurs, la société SHARK Robotics évolue sur le plancher des vaches, et son créateur Jean-Jacques Topalian appartient plutôt à la catégorie des inventeurs entrepreneurs bienveillants. Même si, dans son histoire récente (M Topalian était le fondateur de la société TECDRON), des requins, il en a pas mal croisé – mais ceci est un blog technologique, et cette histoire une autre histoire qu’il ne m’appartient pas de relater.

shark1

Focus sur SHARK Robotics, donc, société de 16 personnes environ, implantée à Paris et la Rochelle, et présente lors de cette édition 2017 du SOFINS, avec ses robots terrestres impressionnants. Le plus connu est le COLOSSUS, un robot rouge rutilant, un camion pompier en miniature. Et effectivement, le COLOSSUS est bien un robot pompier, capable de réaliser des tâches de contrôle et d’inspection dans des milieux hostiles, mais également d’intervenir dans toutes les conditions (il dispose de caméras thermiques jour/nuit) pour éteindre un feu. Il permet d’ailleurs de tirer 250m de tuyau, une tâche extrêmement physique, assurée en l’occurrence par la machine.

shark3

Le COLOSSUS porte bien son nom, et son poids : la bête pèse 420 kg pour des dimensions de 1600 x 780 x 760 mm, mais est capable sans problème de pousser une voiture pour la dégager (jusqu’à 2 tonnes), tout en emportant une charge utile d’une demi-tonne. Sa motorisation est électrique : 2 x 4000W en 48V, pour une vitesse maximale de 6 km/h et une autonomie de 2h. Le pilotage, qui peut s’effectuer à une distance de 1000m, est réalisé via des consoles spécifiques, soit le poste de pilotage IK-SHARK (limité à 300m), soit une tablette durcie tactile baptisée NX-SHARK, conçue en partenariat avec NEXTER Robotics (ci-dessus). Ci-après, un portrait de la bête « en pied » ( (c) Shark Robotics):

colossus550x400

L’engin va d’ailleurs bientôt équiper la brigade des sapeurs-pompiers de Paris – il leur permettra d’intervenir en toute sécurité, tout en relevant des informations indispensables (température, présence de gaz), et d’éteindre des feux grâce à un canon à eau motorisé intégré sur l’engin. Bien évidemment, on peut imaginer d’autres usages, puisque le robot est muni d’un rail Picatinny lui permettant d’emporter d’autres types d’équipements, y compris offensifs.

shark6

Au SOFINS, outre quelques innovations malheureusement confidentielles, la société présentait l’ATRAX (ci-dessus), un robot polyvalent de petite taille conçu pour l’inspection, la surveillance, la neutralisation de colis suspects ou l’intervention. Capable de gravir une pente à 60 degrés, la machine possède une autonomie d’une heure et demie, et est pilotée par les mêmes consoles que le COLOSSUS. Elle présentait également sa plate-forme RHYNO (ci-dessous), une plate-forme robotique paramétrable, pouvant être configurée à la demande pour chaque cas d’utilisation spécifique, et capable d’emporter une charge utile d’une tonne. On la voit ci-après (plate-forme bleue) avec une tourelle vidéo.

shark2

La spécificité de SHARK Robotics, outre son inventivité, c’est de maîtriser l’intégralité de la chaîne de conception et de production, avec son propre bureau d’études, et un atelier usinage qui leur permet de concevoir leurs propres pièces, jusqu’au dernier engrenage. Mais l’innovation n’est pas que mécanique : chacun de ces robots peut disposer de capacités de transmission de données à longue distance, jusqu’à 5km pour le COLOSSUS. Et tous les robots de SHARK Robotics sont équipés d’une motorisation électrique, une bonne idée, qui, en termes opérationnels, assure également une certaine discrétion. On se souvient que certaines expérimentations en robotique terrestres ont été arrêtées en raison du  bruit généré par les moteurs des robots.

Une belle société, donc, qui mérite d’être connue, déjà reconnue par les unités opérationnelles et qui mérite d’être soutenue, face aux acteurs anglo-saxons du domaine.

IMG_20170328_155134_01

J’ai eu la chance de participer à l’édition 2017 du SOFINS, salon dédié à l’innovation pour les Forces Spéciales, mais qui dépassait très largement cette seule thématique. Je vais donc écrire quelques articles pour vous faire partager les innovations que j’ai pu découvrir à cette occasion.

Cette série débute donc par le chien connecté. Le groupe SSI, une société présente sur de nombreux domaines du marché de la sécurité intérieure, présentait en effet un très sympathique malinois muni d’une visière, ce qui n’a pas manqué d’intriguer bon nombre de visiteurs. Explication : le système en question, baptisé K9 vision, a été conçu par la société T&S concepts, une société dirigée par deux inventeurs passionnés, Stéphane Rollot et Thomas Schuppe.

Ces derniers avaient commencé par concevoir un mini casque, en impression 3D, confortable pour le chien car conçu à ses mesures, et permettant de placer une caméra portée par le toutou (voici le casque initial, ci-dessous).

IMG_20170328_155424

Car c’est bien là le concept : concevoir un « chien-drone », muni d’une caméra déportée permettant de transmettre à l’opérateur le flux vidéo correspondant à ce que le chien observe. T&S a ensuite industrialisé le système pour en arriver à cette visière originale, présentée sur le stand de GSSI :

IMG_20170328_155316

L’idée peut paraître originale ou saugrenue, mais quand on y réfléchit bien, c’est un concept assez astucieux : le chien (évidemment parfaitement dressé) obéit à la voix, mais peut également être dirigé par un faisceau laser qui vient désigner une cible. Il peut alors effectuer différentes missions (comme la détection d’explosifs) tout en envoyant le flux vidéo directement à son opérateur, à distance.

chien

Le drone canin a plusieurs avantages :  la rapidité, le flair, et également l’autoprotection (vue la mâchoire de la bête, je ne m’y risquerais pas). Un concept astucieux, respectueux de l’animal (qui ne semblait éprouver aucune gêne) et optimisant les capacités du chien tout en fournissant à son maître une vision immédiatement utilisable de ce que l’animal perçoit (voir ci-dessous le point vert du laser permettant de diriger le toutou).

chien4

Sur le même stand (GSSI), on trouvait également un concept original baptisé Sound Wave Decoder. Réservé aux « services », l’objectif est cette fois ci-complètement différent, puisqu’il s’agit d’analyser automatiquement et de décoder les serrures dites à goupille.

IMG_20170328_160048

Alors que cette tâche peut prendre des heures, ce système permet d’obtenir une « empreinte numérique » de la clé, permettant de la reproduire, en moins de 2 minutes. Il ne s’agit ni plus ni moins que d’une échographie : le système comporte en effet une sonde ultrasonique rétractable en titane d’1 mm2 de section.

L’opérateur utilise la sonde pour explorer progressivement la serrure, en s’aidant d’un guide (une clé neutre), et le capteur d’ultrasons réalise l’échographie pour permettre de déterminer le profil des différentes goupilles. Le résultat est enregistré sous la forme d’une image sur un smartphone. Cette image peut ensuite être analysée par un logiciel spécifique, qui permet de reproduire le profil de la clé adaptée à la serrure.

serrure

Cette dernière peut être alors réalisée, de manière traditionnelle ou en utilisant une machine d’impression 3D. Bon, évidemment, n’espérez pas trouver le système sur FNAC ou Amazon, sa vente est réservée aux services de l’Etat.

Un système conçu par la société COFED, et intégrée à l’offre du groupe SSI. Ce dernier m’a d’ailleurs montré d’autres innovations, comme un système impressionnant de simulation pour l’entraînement, baptisé Simulator CQB mais ce sera pour un prochain article.

La suite bientôt…

gicat1

Pour une fois, je me fais le porte-parole d’une action dans laquelle je suis directement impliqué, et que je crois véritablement bénéfique pour le monde de l’innovation de défense en France. L’idée est d’accompagner les start-up françaises dans le monde de la défense terrestre et aéroterrestre et de la sécurité, et comme vous le constaterez, la première « promotion » est de qualité!

Vous trouverez ci-dessous le communiqué officiel du GICAT (pour mémoire : groupement des industries de défense et de sécurité terrestres et aéroterrestres) que je reproduis directement. Pour toute information, adressez-vous au GICAT (ou à moi, je relaierai).

Le GICAT lance officiellement son nouveau label “Generate” permettant à des start-up françaises de comprendre et d’intégrer le monde de la défense et de la sécurité.

L’ambition première de ce label est de devenir un HUB d’échanges afin de promouvoir l’innovation au sein du secteur de la Défense et de la Sécurité terrestres et aéroterrestres. Ces industriels développent du matériel de pointe, performant, gage d’une grande technicité. Les start-up ignorent parfois qu’elles sont à l’origine de technologies pouvant avoir une utilité dans le monde de la défense et de la sécurité. Rejoindre « Generate » by GICAT, c’est leur offrir de nouvelles opportunités et leur assurer un accompagnement sur mesure afin de se développer.

Les objectifs de ce label sont les suivants:

  • Promouvoir une démarche d’intelligence collective entre acteurs de la défense & sécurité et start-up issues d’autres secteurs
  • Participer à l’excellence française en matière d’innovation et en faire bénéficier le secteur défense & sécurité
  • Mettre en avant l’importance de l’innovation au sein de l’industrie de défense et de sécurité terrestres et aéroterrestres

Afin de faciliter l’intégration de ces start-up, le GICAT mettra à leur disposition de nombreux services comme :

  • Apporter une connaissance globale des mécanismes et acteurs (institutionnels, industriels, scientifiques, etc.)
  • Organiser des rencontres avec les acteurs de la défense & sécurité : forces de sécurité, forces armées, DGA, centres de recherche, etc.
  • Mettre en relation ces start-up avec des industriels membres du GICAT souhaitant échanger et coopérer dans une démarche d’innovation
  • Accompagner ces start-up grâce à une système de parrainage assuré par des membres du groupement qui leur apporteront leur connaissance et retours d’expérience.

Le 17 mars 2017, un jury composé de la délégation du GICAT, de présidents de commissions et d’industriels – Emmanuel Chiva (AGUERIS), Jérôme Diacre (ELNO) et Yannick Rolland (ATOS) – ont retenu 5 start-up pour faire partie de la première « promo » de Generate :

gicat2

Née d’un projet de R&D personnel en 2010, Aleph-Networks est née en février 2012 autour du développement de deux technologies innovantes :

  • GrayMatter, une technologie de collecte et structuration de données, adressant les problématiques Big Data
  • SafetyGate, une technologie de réseaux distribués (p2p) permettant de répondre aux risques induits par la transmission d’informations sensibles.

gicat3

Solution complète anti-drone, CerbAir permet de détecter, localiser et neutraliser les drones malveillants avant que ceux-ci ne commettent leur méfait. Issues de la recherche française, leurs technologies d’analyse radiofréquence et de reconnaissance d’image protègent contre tous les drones civils. Enfin, le système d’alerte et de levée de doute en temps réel permet de neutraliser le pouvoir de nuisance des intrus indésirables via le recours à diverses contremesures telles que le brouillage ou le lance-filet.

gicat4

Linkurious Enterprise est une plateforme de visualisation et d’analyse big data qui permet de comprendre les connections cachées dans les données. Sa technologie est déjà utilisée par le ministère français des Finances pour la détection de la fraude à la TVA, par plusieurs banques pour améliorer la détection de blanchiment d’argent, et sur des questions de sécurité informatique. Linkurious collabore même avec la NASA, pour rendre l’information d’une de ses bases de documents facilement utilisable, en mettant au point un système plus adapté que les moteurs de recherche.

gicat5

Le premier correcteur automatique de calculs – Aujourd’hui, pour corriger les déviations numériques, les ingénieurs testent le plus grand nombre de manière possible d’écrire chaque formule pour trouver la meilleure et ensuite tester si celle-ci est suffisamment stable et précise… Mais il est parfois difficile de tout tester dans le temps imparti. Numalis valide les programmes et multiplie leur précision tout en améliorant leurs performances.

gicat6

Sterblue met en oeuvre des solutions d’inspection automatique de sites sensibles autour de trois technologies principales :

  • Perception: algorithme de navigation autonome aux abords des structures complexes
  • Curiosity : algorithme d’intelligence artificielle (Deep Learning) permettant la détection automatique de défauts dans les clôtures/intrusion
  • Cloud Sterblue permettant de stocker et visualiser l’intégralité des données traitées sur différentes interfaces utilisateurs.