Articles Tagués ‘Biométrie’

face7

Oui, le sujet de ce post est assez énigmatique. Depuis quelques semaines, je multiplie les articles sur l’IA et ses applications militaires ou de sécurité, pour coller à l’actualité. Aujourd’hui, voici deux exemples assez concrets (voire un peu inquiétants) qui touchent au « deep learning » et dont les applications sont véritablement impressionnantes.

Reconnaître des visages dans le noir

face1

La reconnaissance faciale est l’une des technologies les plus connues et les plus immédiates du « deep learning ». Au passage, je me permets un petit rappel, tout le monde n’étant pas spécialiste de l’intelligence artificielle. Le deep learning est un sous-ensemble des techniques d’apprentissage machine à base de réseaux de neurones – le principe est de décomposer de manière hiérarchique le contenu d’une donnée complexe comme de la voix ou une image pour la classifier ensuite.

neuralnetworks

Le terme de deep learning a été inventé par Yann le Cun, actuel directeur du laboratoire d’IA de Facebook en France, pour « booster » sa recherche de fonds dans le domaine des réseaux de neurones qui était alors tombé en déshérence. Au-delà, il regroupe aujourd’hui nombre de techniques d’apprentissage à base de réseaux de neurones profonds, qui ne s’appuient pas sur des règles établies par avance. C’est, au passage, un problème : comme le souligne le rapport Villani, le deep learning est une « boite noire », car on se trouve dans l’incapacité de décrire de façon intelligible le résultat produit sur chaque nouveau cas, et en particulier à pointer les caractéristiques les plus importantes du cas en question ayant conduit au résultat produit.

face2

En l’occurrence, ces techniques sont très efficaces par exemple pour reconnaître des visages : à la fois en raison de la disponibilité d’images pour réaliser l’apprentissage, et de par le développement considérable des capacités de calcul (GPGPU par exemple), des sous-types de réseaux de neurones profonds comme les DCN (deep convolutional neural networks – je ne rentre pas dans le détail) sont capables de reconnaître des visages avec des performances proches de l’humain (voir par exemple le projet DeepFace).

face3

Mais cela, dans le spectre visible. Dans l’obscurité, on traite les images infrarouge, et cela pose un problème car les taux de reconnaissance chutent alors de façon drastique. La nuit, ou même dans certains cas où l’illumination n’est pas suffisante, les techniques de reconnaissance biométrique par réseaux de neurones ne peuvent plus fonctionner, sauf à utiliser une lampe torche, ce qui manque évidemment d’une certaine discrétion. La raison est simple : les visages à reconnaître en infrarouge doivent être combinés à une image provenant d’une base de données qui, elle, a été créée en lumière visible. Comme on le voit sur l’image ci-dessous, la comparaison est difficile.

face4

Pour surmonter ce problème, des chercheurs du ARL (US Army Research Laboratory) et de la firme Booz Allen Hamilton ont imaginé utiliser les réseaux de neurones afin de synthétiser à partir d’une image infrarouge, un visage en lumière visible qui, lui, pourra être comparé aux bases de données normales. Pour ce faire, ils utilisent une double technique : une régression non linéaire à l’aide de réseaux DCN pour extraire des caractéristiques de l’image thermique et construire une première représentation du visage, puis une synthèse et une optimisation des gradients permettant de projeter cette représentation dans le domaine visible – voir le processus ci-dessous et se reporter à l’article suivant qui donne tous les détails .

face10.jpg.png

Le résultat est spectaculaire : l’image synthétisée correspondant au visage non visible en thermique plus haut, est cette fois-ci beaucoup plus proche de sa représentation dans la base de données, ce qui permet une identification par des techniques de biométrie elles-mêmes fondées sur l’utilisation de réseaux de neurones.

face5

Et cela fonctionne très bien: lors de la conférence, les chercheurs ont ainsi utilisé une caméra thermique FLIR Boson 320 avec un portable permettant de faire tourner la démonstration en quasi temps-réel.

Mais les apports du deep learning ne s’arrêtent pas là…

Simuler un visage… et l’animer

Regardez cette vidéo. Non mais regardez-la vraiment….et jusqu’au bout.

 

Ce n’est donc pas Barack Obama qui parle, mais une combinaison d’une captation de son visage et d’un algorithme permettant de remplacer le mouvement de ses lèvres par un mouvement synthétique. Le résultat : on peut lui faire dire n’importe quoi, et je vous défie de le détecter. Impressionnant, et effrayant. Merci à mon fils qui m’a permis d’identifier et d’étudier cette vidéo.

C’est ce que l’on appelle un « deep fake » : un montage extrêmement réaliste permettant de simuler de manière photoréaliste, et grâce à l’IA, une vidéo plus vraie que nature. L’origine de ces fausses vidéos ? Un développeur opérant sur Reddit, sous le pseudonyme de « deepfakes », qui a adapté des techniques de deep learning en source ouverte, afin de substituer un visage de synthèse à un visage réel. Depuis (et après pas mal d’applications dans la pornographie, je vous laisse imaginer) la technique est devenue accessible à tous. L’exemple de Barack Obama montre ce qui est possible de faire, lorsque l’on est un tant soit peu professionnel.

face8

L’idée est de rassembler le plus d’images possibles de la cible (c’est pourquoi généralement les deep fakes s’attaquent à des personnalités publiques, dont les images circulent en grand nombre sur Internet). L’imposture consiste ensuite à apprendre (par deep learning) les traits caractéristiques de la cible – en l’occurrence le mouvement des lèvres – et à les remplacer par une image de synthèse commandée en temps réel par le « marionnettiste » (un individu dont on capte les mouvements des lèvres qui sont ensuite projetés sur les mouvements des lèvres de la cible).

Le souci c’est que l’on croit tout ce qui est sur Internet (la preuve dans mon article du 1er avril largement relayé, ce qui me fait encore rire) et que l’on croit encore plus ce que l’on voit. Ces techniques, qui relevaient il y a un an du projet scientifique, sont aujourd’hui démocratisées et accessibles. Le diagnostic est donc immédiat et fait peur : on ne peut plus croire ce que l’on voit. Reste donc à imaginer des algorithmes permettant, en identifiant les subtiles différences, à détecter l’imposture, et à discriminer le « deep fake » du vrai. Mais si cela reste possible pour les spécialistes et les scientifiques, il sera toujours facile pour un grand nombre d’entre nous de prendre l’image pour la réalité. Une nouvelle ère s’annonce donc, dans le domaine de la propagande et des manipulations psychologiques, une ère dans laquelle la prudence voire la méfiance s’imposent. Et cela, ce n’est pas drôle…

IMG_20170328_134331 - Copie

Suite du compte-rendu de ma visite au salon SOFINS 2017, en commençant par un produit qui avait d’ailleurs été déjà présenté au forum Innovation de la DGA (photo ci-dessous) : SESAME II, une pile à combustible pour les fantassins. Conçue dans le cadre d’un partenariat (dont l’acronyme signifie Source d’Energie pour Systèmes Autonomes Miniaturisés) entre la DGA, SAFRAN et le CEA LITEN, il s’agit d’un système d’énergie autonome reposant sur une pile à hydrogène.

cover-r4x3w1000-583713484e2c5-sesame 2

Le système est composé d’un cœur de pile miniaturisé, permettant de convertir l’hydrogène provenant d’une cartouche de liquide en électricité. La gestion de la puissance est réalisée par une batterie lithium-ion intelligente, permettant de gérer les appels de courant, ainsi que la puissance requise au démarrage. Mais la véritable originalité, c’est de pouvoir générer l’hydrogène nécessaire à la demande, par une réaction d’hydrolyse (pour être précis : hydrolyse de borohydrure). L’hydrogène n’est donc pas stocké, ce qui poserait pas mal de problèmes notamment opérationnels, mais généré en fonction du besoin, à partir d’une cartouche. Les avantages : une réduction de 50% de la masse par rapport aux batteries conventionnelles emportées par un combattant FELIN, soit 2kg en moins pour 3 jours d’utilisation autonome (2kg 100 à comparer aux 4,2 kg de batteries conventionnelles).

IMG_20170328_122139 - Copie

Trois cartouches permettant d’assurer une mission de 72h. La puissance délivrée est de 360Wh (12-15W), opérant dans une large gamme de conditions, de -20°C à +45°C, le système intégrant des capacités antigel ainsi que des capacités de réchauffement.  Une innovation à suivre, contribuant significativement à allègement du combattant. Cerise sur le gâteau : en cas de tir dans la batterie, l’hydrogène n’étant pas stocké mais généré, il n’y a aucune conséquence sur le système (pas d’explosion, pas d’émanation).

IMG_20170328_134326 - Copie

Autre innovation rencontrée, le drone hybride EZ|MANTA de la société EZNOV. Il s’agit d’un drone VTOL (Décollage & atterrissage vertical) d’une autonomie de 45 minutes, muni de 3 moteurs directionnels indépendants. Conçu intégralement en France, ce qui est suffisamment rare pour être cité, le système intègre… un smartphone permettant notamment de planifier une mission de cartographie. Les zones interdites et autorisées sont entrées dans le smartphone ainsi que les autres paramètres (choix de l’altitude de vol et du recouvrement des clichés, plan de vol…).

IMG_20170328_134357 - Copie

Le smartphone est ensuite intégré dans le drone et communique directement avec l’autopilote. Le drone emporte une caméra vidéo UHD 4k et un appareil photo de 12MP, une caméra thermique QVGA étant proposée en option. Après le vol, le système génère automatiquement une carte globale géo-référencée. Le drone lui-même est conçu en mousse de polypropylène, autour d’un châssis en fibre de carbone, et intègre un capteur d’attitude laser LIDAR. Voici une vidéo de présentation du produit :

Il s’agit donc d’un système de cartographie simple et intuitif, permettant de planifier et de réaliser une campagne de cartographie en effectuant un vol à plat, stabilisé automatiquement, et permettant d’optimiser la qualité photo des clichés. Et Made In France, qui plus est…

Parmi les startups présentes au SOFINS, parlons maintenant de la société UNIRIS qui présentait une solution innovante d’authentification biométrique couplée à une nouvelle génération de blockchain. UNIRIS a présenté ce curieux objet (ci-dessous), destiné à être couplé à un smartphone ou à un terminal mobile, et dans lequel l’utilisateur place son doigt.

IMG_20170330_121615 - Copie

Le système est alors capable de reconnaître l’utilisateur de façon unique, le capteur réalisant une reconnaissance 3D des réseaux veineux et nerveux du doigt (si, si), une analyse des empreintes digitales latérales, une reconnaissance de la transparence de la peau à l’infrarouge ainsi que l’émission intrinsèque de chaleur du doigt, … Une batterie d’analyse donc, permettant de caractériser sans aucune ambiguité un utilisateur donné (d’ailleurs plus de 6 brevets ont déjà été déposés par la jeune équipe d’UNIRIS).

Autre avantage : le vieillissement, et donc la transformation des caractéristiques biométriques et les évolutions morphologiques de l’utilisateur au cours du temps sont pris en compte.

uniris3

Un outil qui m’a fait une assez forte impression, car fondé sur une véritable approche scientifique et intégrée de l’authentification et non une nouvelle instanciation de recettes connues depuis longtemps. Avec des applications qui vont de l’authentification classique sur un site ou une messagerie au vote électronique ou au contrôle de la gestion des données. Des thèmes portés par une jeune équipe, et une start-up à soutenir avec une véritable et originale approche de l’authentification biométrique.

v2

L’idée est amusante et peut paraître bizarre, mais elle est loin d’être stupide. L’équipe de recherche de Ahmad Hassanat au sein de l’université de Mu’tah de Jordanie a en effet eu l’idée de déterminer l’appartenance d’un individu à un groupe terroriste et de tenter de l’identifier en utilisant une technologie de reconnaissance automatique des images… de leurs doigts faisant le signe « V » de la victoire.

La constatation – surprenante- de l’équipe de recherche est que la manière dont les doigts forment le signe « V » est aussi caractéristique de l’appartenance d’un individu que sa voix, ou même ses empreintes. Leur étude est baptisée « Victory Sign Biometric for Terrorists Identification » et est disponible en suivant ce lien. Une solution intéressante, dans un contexte où les individus se camouflent le visage pour ne pas risquer d’être identifiés.

v3

L’idée de s’intéresser aux signes provient à la fois de l’abondance de photos où des terroristes font un geste victorieux, et de la relative facilité de l’analyse :

  • La capture de la forme de la main ou de la gestuelle ne nécessite pas de senseurs élaborés, ou d’images de très haute-fidélité
  • Si des images plus détaillées sont disponibles, la méthode permet d’agréger d’autres techniques d’analyse (analyse palmaire, empreinte digitale…)
  • La complexité algorithmique de l’analyse est assez faible et les méthodes sont nombreuses et éprouvées.

L’idée consiste à identifier les points correspondant à l’extrémité des doigts, le point à la jonction des doigts et deux points caractéristiques sur la paume de la main. Dans l’étude, 50 volontaires ont fait le signe « V » et ont été photographiés par un appareil standard (8 mégapixels). Cette base de données a permis d’entraîner le système à identifier des références biométriques caractéristiques.

v1

Au final, l’étude a montré qu’il était possible dans de nombreux cas d’identifier avec une précision de 90% la personne faisant le signe. Quelques erreurs subsistent, par exemple dues à la position des autres doigts qui interfère avec les algorithmes de segmentation de l’image.

La technique est donc intéressante, même si, d’un point de vue purement scientifique, il semble difficile de généraliser de tels résultats avec une base de données aussi restreinte. Mais cela permet d’imaginer exploiter au maximum les sources ouvertes, comme les images présentes sur Internet. Faute d’identifier avec précision un terroriste, il serait possible de le suivre, et de corréler cette information avec toutes les autres disponibles en source ouverte. Et si les terroristes arrêtent de faire le signe « V », alors soit cela signifient soit qu’ils arrêtent d’être victorieux ( !) soit qu’il est nécessaire de passer à d’autres modes de reconnaissance (gestuelle, attitude, etc…). Une course aux armes biométriques, en somme…

biom2

Connaissez-vous le système Crossmatch SEEK II (Secure Electronic Enrollment Kit)? Il s’agit d’un outil d’identification portable utilisé par les forces spéciales américaines, ainsi que l’US Navy, et permettant, sur le terrain, de capturer une empreinte digitale, le visage, et le scan de l’iris d’un individu suspect, et d’interroger en temps réel une base de données (en l’occurrence celle du FBI) même si la couverture radio est faible.

Le système SEEK II est déjà une évolution du précédent système baptisé (vive les acronymes) BATS – pour Biometrics Automated Toolset, ou HIIDE pour Handheld Interagency Identification Detection System, qui ne permettaient la recherche que sur une base dite ABIS (Automated Biometric Information System – ouf !), ne contenant que les bases de données des personnes dans les pays dans lesquels les forces américaines opèrent. Ce système portable est connecté à un ordinateur portable DELL M4800 connecté aux bases de données aux Etats-Unis.

biom3

 Tout cela pour dire que le concept d’un outil nomade d’identification biométrique est depuis longtemps intégré dans la doctrine américaine, notamment chez les Forces Spéciales (notamment les commandos SEALS).

Cet outil a notamment été utilisé dans l’identification du corps d’Oussama Ben Laden, ainsi que dans l’arrestation d’un certain nombre de terroristes présumés, après que leurs empreintes digitales ont été trouvées dans des caches d’explosifs. Incidemment, les autorités afghanes profitent de l’existence de l’outil pour recueillir les empreintes digitales de l’ensemble de la population, et établir des fichiers biométriques.

biom1

Aujourd’hui, les FS américaines veulent se doter d’un nouvel outil dans le cadre du programme Identity Dominance system (IDS) 2, et capable notamment d’effectuer une identification à distance des individus contrôlés. Parmi les fonctions supplémentaires souhaitées, on trouve aussi l’identification via l’empreinte palmaire, la voix, l’empreinte génétique (ADN), la géométrie de la main, son réseau vasculaire, ou encore l’allure générale et la démarche (!). Et bien évidemment, sur la liste de Noël figurent l’autonomie, la compacité et le facteur de forme.

Un appel d’offres est émis par le US Marine Corps Command est en cours d’émission. Le point de contact peut être trouvé ici.