Archives de la catégorie ‘Informatique et IA’

numalis2

Vous vous souvenez sans doute de cette nouvelle, qui date un peu, mais qui avait fait grand bruit lors de la première guerre du Golfe : le 25 février 1991, un missile SCUD irakien avait frappé la base de Dhahran, en Arabie saoudite, tuant 28 soldats américains. Après analyse, l’enquête avait montré qu’un missile MIM-104C (PAC-2) PATRIOT avait bien été lancé pour intercepter le missile, mais qu’il avait manqué sa cible en raison… d’une erreur logicielle.

La batterie de missiles Patriot de Dharan se trouvait en effet en fonction depuis plus de 100 heures, et des erreurs d’arrondi avaient progressivement amené un décalage proche d’une seconde, soit 600m, entre la position perçue de la cible, et sa position réelle. Pas d’erreur mathématique ici, mais simplement la constatation que si les maths sont justes, ce n’est pas pour cela qu’un ordinateur est capable de bien calculer.

numalis8

Ce n’est d’ailleurs pas le seul exemple d’une erreur logicielle minime ayant des conséquences dévastatrices : citons pêle-mêle l’explosion d’Ariane V en raison d’une erreur dans la gestion de l’accélération, ou encore effondrement de la plateforme Sleipner A le 23 août 1991 (décidément une annus horribilis pour les systèmes critiques) à la suite d’une erreur logicielle résultant en un défaut de conception dans la résistance des ballasts – ci-dessus. Le résultat : une plate-forme gazière reposant à plus de 200m de fond. Pour les personnes intéressées, une liste des catastrophes dues à des erreurs de ce type est accessible ici.

Le logiciel, ce n’est donc pas que du virtuel. Et c’est pour s’attaquer à ce type de problèmes qu’une start-up de Montpellier, la société NUMALIS, soutenue par le programme GENERATE du GICAT, a développé une technologie assez révolutionnaire.

numalis7

On peut la voir comme l’équivalent du correcteur orthographique de Word, mais appliqué aux codes et calculs critiques. Car plus un défaut est détecté en amont, plus on est en mesure d’en éviter les conséquences critiques. La manière classique de procéder, c’est de développer le logiciel de calcul, puis de tester le résultat en conditions réelles, ce qui est long, coûteux, mais surtout risqué ; on peut en effet passer à côté d’un défaut numérique, qui n’apparaîtra que dans certaines conditions. Numalis a développé des outils pour éviter cet écueil.

Il est impossible, pour un ordinateur, de calculer juste (oui, je sais, c’est paradoxal). Pour faire simple, du fait des contraintes matérielles, les représentations de nombres dans un microprocesseur sont bornées, alors que les mathématiciens calculent avec des nombres qui possèdent bien souvent une infinité de chiffres après la virgule. Et cela a deux conséquences : les erreurs de représentation, et les erreurs d’arrondi. Par exemple, un ordinateur ne connait pas le nombre 0,1. Il est obligé d’en réaliser une représentation binaire, ce qui pourra par exemple amener le nombre à une valeur réelle de 0.100000001490116119384765625… avec un petit souci : plus on additionne ou multiplie, plus l’écart entre le nombre envisagé et sa représentation réelle est important.

La représentation d’un nombre en virgule flottante (par exemple) est encadrée par une norme, la norme IEEE 754, qui fixe la représentation des nombres, les formats des données, les valeurs spéciales, les modes d’arrondi les règles de conversion et le comportement des opérations élémentaires pour l’arithmétique à virgule flottante. Pourtant, il est impossible de représenter exactement tous les nombres avec la norme IEEE 754. Car même si la norme définit des règles, le problème majeur du calcul flottant reste les erreurs d’arrondi dont les principales sources sont l’annulation catastrophique, l’absorption et l’accumulation des erreurs (un exemple ci-dessous).

numalis1

C’est là que Numalis intervient. La société fondée par Arnault Ioualalen (ci-dessous) se veut le correcteur orthographique du code critique. Elle s’est spécialisée dans l’analyse et l’optimisation de la fiabilité et des performances des calculs numériques, avec des produits permettant de réaliser de manière automatique un audit numérique de codes critiques ainsi qu’une correction également automatique et une optimisation de ces codes.

numalis5

Le but est d’anticiper les défauts numériques dès la phase de conception, avec un outil qui surligne, à la manière d’un correcteur, les lignes du programme présentant un risque, et qui les améliore d’un simple clic.

Les solutions de Numalis (baptisées Spoat et Wizoat) sont capables d’analyser le code C, C++ et bientôt Ada2012, et d’en détecter les erreurs comme la division par zéro, la dérive catastrophique d’un code numérique, le dépassement (overflow), etc…  La gamme Spoat détecte les vulnérabilités numériques par une technique appelée analyse multispectrale de code, et met en avant les axes d’amélioration. La gamme Wizoat propose des patchs du code source pour améliorer sa qualité et/ou sa performance de calculs.

Outre le fait de pouvoir détecter, avant les phases de tests, la fiabilité des systèmes critiques, les outils de Numalis permettent d’augmenter la fiabilité des calculs, d’améliorer leurs performances (rapidité de traitement, par exemple dans le traitement sol d’images satellites) et de réaliser un arbitrage entre précision et performance au niveau matériel comme logiciel, par exemple pour des systèmes embarqués utilisant des FPGA (« field programmable gate arrays », des processeurs reprogrammables).

Dans le domaine de la défense, les applications sont évidemment nombreuses, qu’il s’agisse de garantir la fiabilité des systèmes critiques (par exemple pour des commandes de vol, des autodirecteurs, etc.), d’améliorer la performance des systèmes de traitement temps réel (image, ROEM,…)

numalis6

Fondée en novembre 2015, Numalis a été labellisée dans le cadre du dispositif GENERATE du GICAT, et vient d’obtenir le prix innovation du public lors du challenge « start-ups » de l’université d’été du MEDEF – ci-dessus. Une société à suivre…

sounic6

Ce qui est bien quand on tient un blog comme le mien avec la « Black Hat Conference », c’est qu’on est sûr que chaque édition apportera son lot d’innovations, pour nous convaincre que décidément, la sécurité informatique dans notre monde hyperconnecté, ce n’est pas de la tarte.

Rappelons que la Black Hat Conference est un événement annuel créé il y a maintenant vingt ans par Jeff Moss (également fondateur de la conférence DEFCON), et qui rassemble différents « briefings » sous forme de conférences à Las Vegas, Amsterdam, Tokyo et Washington (plus quelques autres événements). Le sujet est celui de la cybersécurité et vise à partager l’état de l’art sur le domaine, et les bonnes pratiques associées. Pour faire simple : c’est la messe annuelle des hackers !

sonic4

Cette fois-ci, l’innovation vient de l’équipe Alibaba Security, le département de sécurité informatique du groupe chinois Alibaba. En partenariat avec la prestigieuse université pékinoise de Tsinghua, l’équipe a présenté une conférence/démo intitulée « Sonic Gun to Smart Devices » et sous-titrée « comment vos appareils peuvent être contrôlés par des sons ou des ultrasons ».

sonic8

L’idée est de montrer que les systèmes embarqués dans une tablette, un smartphone ou un drone, tels que les gyroscopes, accéléromètres ou autres systèmes microélectromécaniques (ce que l’on appelle des MEMS) sont en fait sensibles aux sons ou aux ultrasons. Le principe est en fait simple : il consiste à trouver ce que l’on appelle la fréquence de résonance du système ciblé.

Prenons l’exemple d’un gyroscope ou d’un accéléromètre. Ces systèmes peuvent être comparés avec des systèmes « masses-ressorts » mais à l’échelle microscopique (ce sont souvent des accéléromètres soit capacitifs – ci-dessous, soit piézo-électriques).

sonic3

Ils possèdent une fréquence de résonance qui leur est propre : toute interférence avec celle-ci provoque donc un leurrage de la stabilité du capteur, ce qui amène ce dernier à envoyer des données erronées.

sonic1

C’est donc le principe des attaques menées par l’équipe Alibaba. Les chercheurs ont ainsi utilisé une « arme ultrasonique » (en gros, un système de génération d’ultrasons, réalisés à la main dans leur atelier) permettant de moduler la fréquence des sons afin qu’elle corresponde à la fréquence de résonance du capteur MEMS visé.

Une fois la fréquence de résonance atteinte, le capteur vibre et devient désorienté, car il perd sa référence stable, il envoie donc des valeurs fausse au système qui l’héberge.

sonic2

Une première démonstration assez impressionnante montre ce que l’on peut faire en piratant ainsi un casque de réalité virtuelle Oculus Rift (le sac en papier pour l’infortuné qui porterait le casque n’est pas fourni) – les chercheurs ont montré une attaque analogue sur un HTC Vive ou des lunettes Hololens.

Bon, vous me direz « et alors » ? Alors… il y a pléthore de systèmes qui pourraient être piratés de cette manière. Les auteurs ont ainsi démontré des attaques sur un smartphone (ici le Samsung Galaxy S7)

Sur un drone de type DJI Phantom (ici sur la caméra, mais également sur les hélices)

Ils ont également montré qu’un hoverboard électrique auto-équilibré (en gros une skateboard muni de gyroscopes et capables de se stabiliser tout seul), semblant initialement immunisé, devenait vulnérable si on pratiquait une petite incision sur sa coque (plastique), afin de laisser passer les ultrasons – on peut aussi utiliser des émetteurs ultrasoniques de forte puissance. Et que pendant l’attaque, il oscillait d’avant en arrière – on imagine ce que cela pourrait donner sur la route.

Car potentiellement, une telle attaque serait applicable au piratage d’une voiture connectée – soit par exemple en provoquant le déclenchement intempestif des air bags (non, pas très agréable quand on conduit) soit en destabilisant des véhicules autonomes pour provoquer des accidents. C’est d’autant plus ennuyeux que le matériel nécessaire ne relève pas de la science des particules – le générateur utilisé a coûté aux chercheurs la somme dérisoire de 320$ !

sonic7

Heureusement, les parades sont identifiées : on peut ainsi protéger les MEMS des sons parasites provenant de l’extérieur par des revêtements isolants, utiliser un logiciel de surveillance et de contremesure permettant de détecter puis de contrer tout émission sonore par des mécanismes de réduction active de bruit (en gros on envoie une longueur d’onde opposée – c’est le principe des casques réducteurs de bruit). Mais la meilleure parade réside dans l’utilisation de MEMS de nouvelle génération peu sensibles aux stimuli externes, comme les gyroscopes SD-BAW pour « substrate-decoupled bulk-acoustic wave dont le principe de fonctionnement est décrit dans ce document .

Cette attaque a l’intérêt de mettre en évidence la vulnérabilité des équipements professionnels ou grand public ; on trouvera toujours en effet une faille, un nouveau mode d’attaque, une vulnérabilité exploitable. Il est donc indispensable, en tout cas pour les équipements critiques ou militaires, de considérer l’aspect sécurité, et de ne pas considérer qu’une transposition directe du monde civil au monde professionnel ou militaire doit être la règle…

corti6

La vision artificielle a fait des progrès considérables dans ces dernières années, avec certes le développement de nouveaux capteurs, mais aussi en raison de l’apparition à la fois de processeurs spécialisés adaptés spécifiquement à cette problématique, et de nouveaux algorithmes, capables de fonctionner en temps réel, ce qui était inconcevable il y a quelques années. Dans ce domaine, de nombreuses sociétés apparaissent, mais celle-ci semble développer une approche originale, et que je pense assez adaptée (je vous dirai pourquoi).

corti1

Cortica est une société israélienne, issue du célèbre Technion, l’équivalent israélien du MIT. La société a été fondée en 2007 par trois chercheurs spécialisés dans l’informatique, l’ingénierie et les neurosciences, dont son dirigeant actuel, Igal Raichelgauz. Après avoir levé un financement d’environ 40M$, la société compte aujourd’hui une équipe conséquente de chercheurs en IA, mais également des experts militaires issus de la communauté israélienne du renseignement ( !) ce qui en dit long sur les applications visées.

L’approche de CORTICA est résolument inspirée par la biologie, et en particulier par le fonctionnement du cortex visuel primaire. Elle développe en effet une technologie d’apprentissage non supervisé (pour faire simple, je rappelle que l’apprentissage non supervisé a pour objectif de découvrir de la valeur dans des données qui ne sont pas structurées a priori, afin de réaliser une extraction de connaissances) afin de disposer d’une IA capable de comprendre l’image « comme un humain ».

corti2

En gros, l’IA cherche à identifier par elle-même des caractéristiques, des motifs (patterns), des relations entre différentes images, et ce de manière autonome, l’ambition étant – je cite – de constituer « un index universel visuel du monde ». Pour ce faire, la société a conçu une architecture d’apprentissage qui s’inspire du cortex visuel primaire des mammifères – peu de détails ont filtré, mais on peut imaginer en particulier qu’il s’agit de coder ce que l’on appelle des neurones à spikes – pour une description plus détaillée, je vous propose de relire cet article.

Cette architecture cherche à permettre un apprentissage non supervisé par observation, ce que l’on pourrait appeler de l’apprentissage prédictif (c’est le terme employé par Yann le Cun, chercheur en IA et directeur du laboratoire parisien d’IA de Facebook). En gros, au lieu de devoir constituer de grosses bases de données d’images « labellisées », donc traitées au préalable afin d’expliquer au système ce qu’il est supposé reconnaître, on présente à l’IA des images, et – comme un nouveau-né qui commence à observer le monde – elle apprend progressivement le sens et les relations entre ces différentes images présentées. Si je crois particulièrement à cette approche et surtout à l’inspiration biologique du cortex visuel primaire, c’est parce que dans ma – de plus en plus lointaine – jeunesse, j’ai travaillé au sein du groupe de bioinformatique de l’Ecole Normale Supérieure sur le sujet de l’apprentissage et de la vision active, inspirée de la modélisation des colonnes corticales du cortex visuel primaire, et que les résultats préliminaires, alors limités par la puissance de calcul dont nous disposions à l’époque, étaient déjà encourageants.

corti3

Cortica vise à déployer sa technologie en l’embarquant dans différents systèmes, qu’il s’agisse de véhicules autonomes, de systèmes automatiques d’analyse d’imagerie médicale, ou d’applications grand public. Mais on voit immédiatement le potentiel d’une telle technologie dans le domaine de la défense et de la sécurité. Le ROIM (renseignement d’origine image) a besoin de telles technologies afin de pouvoir très rapidement générer des « points d’attention » sur des images (images satellites, caméras de surveillance…) et leur donner du sens.

corti5

Il s’agit donc d’une tendance de fond en IA, qui bénéficie directement à la Défense, et qui est d’ailleurs accompagnée par l’émergence de nouveaux moyens de calcul dédié. Google a présenté récemment son Tensor Processing Unit (ci-dessus, et voir ce lien) qui met en œuvre une accélération hardware des réseaux de type Deep Learning. Mais les réseaux de neurones à spikes – tels que ceux a priori mis en œuvre dans la technologie de Cortica – connaissent un développement important, également en France.

Nous avions parlé dans ce blog du projet AXONE (ci dessous) soutenu par la DGA. Simon Thorpe, le chercheur à l’origine de cette technologie, dirige le CERCO, Centre de recherche sur le cerveau et la cognition (Cerco) – rattaché au CNRS et à l’université Toulouse-III. Via la structure Toulouse Tech Transfer (TTT), il vient de céder une licence d’exploitation de sa technologie de reconnaissance à BrainChip, spécialiste des solutions de reconnaissance pour la surveillance civile et qui avait racheté en septembre la société Spikenet Technology.

corti4

BrainChip utilisera cette technologie en vue d’optimiser son microprocesseur Snap, qui analyse en temps réel des flux vidéo. La tendance de fond semble donc se confirmer, avec de nouveaux acteurs en parallèle des Google, Facebook et autres géants, et avec des applications potentiellement considérables dans le domaine de la Défense et de la Sécurité. En attendant leur portage sur de futurs processeurs neuromorphiques, mais c’est une autre histoire.

Pour faire écho à mon récent billet d’humeur, on voit donc que les technologies d’IA commencent à atteindre un degré de maturité considérable, et suscitent un intérêt certain dans nombre de pays compte tenu des enjeux sous-jacents. A la France de maintenir et d’amplifier l’avance qu’elle possède dans le domaine.

Image1

Dans le contexte actuel de transformation profonde de l’Etat, et au moment où la nouvelle ministre des armées prend ses fonctions, je me permets un petit billet d’humeur sur le sujet de l’innovation technologique de défense, avec en toile de fond l’exemple – non limitatif – de l’intelligence artificielle.

Rappelons tout d’abord que la France a des atouts incontestables dans le domaine de l’innovation. C’est une nation majeure des mathématiques avec 13 médailles Fields décernées à des chercheurs français, elle possède une DGA, une particularité française, composée d’ingénieurs spécialisés dans les domaines de la défense et de l’armement. Elle siège au conseil de sécurité des Nations-Unies et possède une dissuasion nucléaire crédible. Malgré sa taille en regard de nos amis américains, russes ou chinois, la France tient son rang dans le domaine spatial (qui est loin d’être un sport de masse comme l’a montré l’échec du programme spatial brésilien), elle possède le second domaine maritime mondial, elle compte un écosystème dense de start-ups, de PME et de champions industriels, bref, nous ne sommes pas ridicules.

FieldsMedalBack

Mais aujourd’hui, l’innovation de défense est faite de ruptures (les nanotechnologies, la fabrication additive, l’internet des objets, …), de convergences, mais aussi de « game changers », d’innovations tellement critiques qu’elles conféreront aux pays qui les détiendront un avantage stratégique majeur. Et il est absolument indispensable de ne pas faire l’impasse sur ces « game changers », comme nous avons pu le faire dans le passé. L’exemple le plus illustratif, c’est le retard du programme français dans le domaine des drones (je ne commenterai pas).

Prenons l’exemple de l’intelligence artificielle qui est particulièrement illustratif. En soi, l’IA n’est pas un domaine nouveau. Les théories à l’origine de l’essor du « Deep Learning » (apprentissage profond automatique permettant à un ordinateur de faire de la reconnaissance vocale, de la reconnaissance faciale, la vision par ordinateur etc…) étaient connues depuis les années 50 (avec des progrès conséquents dans les années 80). Mais ce qui explique la progression exponentielle du domaine aujourd’hui, c’est la convergence entre des capacités de calcul sans commune mesure avec celles de la dernière décennie, une variété de techniques algorithmiques parfaitement explorées et identifiées, des capacités d’ingénierie abouties et une masse de données produites chaque jour permettant un réel essor de l’apprentissage machine. Une convergence permettant aujourd’hui un « big bang » incontestable du domaine.

bigbang

Or l’IA devient aujourd’hui un sujet stratégique. Aux Etats-Unis, c’est la notion de « third offset strategy» qui met l’accent sur les développements de l’Intelligence artificielle et les ruptures technologiques résultante (autonomisation des drones, robotique en essaim, …)

l’IA est ainsi devenue un outil de sauvegarde de la défense et de la souveraineté, de nature à générer une véritable rupture stratégique. Les avancées militaires liées à ce domaine ont été amplement discutées dans ce blog : capteurs abandonnés intelligents, plates-formes de renseignement, robotique autonome, simulation, etc…  Le document « Chocs Futurs » du SGDSN cite explicitement le sujet: « Le système de combat collaboratif, comprenant des composantes pilotées comme des composantes autonomes, bénéficiera d’une capacité d’analyse et d’un délai de réaction sans commune mesure avec un ensemble de systèmes pilotés par des humains. De ce fait, les armées qui disposeront de ces capacités bénéficieront des effets d’une rupture majeure dans l’équilibre des forces. »

aiautonomy

Il est donc absolument indispensable, de tenir notre rang dans ce domaine, et d’anticiper la généralisation de l’IA dans les systèmes militaires. Faute de quoi, entre les acteurs transnationaux comme les GAFA (Google Amazon Facebook Apple… mais la liste est bien plus longue) et les pays investissant massivement sur ces technologies, le risque pour la France est de perdre non seulement des parts de marché liées aux technologies du futur mais aussi des pans de son autonomie d’appréciation et d’action en Défense et Sécurité.

En matière d’IA, la France bénéficie de quelques atouts notables comme je l’ai mentionné en introduction. Son système de financement de la recherche et l’excellence des laboratoires de recherche appliquée, notamment en sciences mathématiques et informatiques en font un creuset reconnu d’experts de niveau mondial. Ce n’est d’ailleurs pas un hasard si l’un des laboratoires les plus en pointe dans le domaine, celui de Facebook, est implanté à Paris et dirigé par un Français, Yann le Cun.

Le domaine est également tiré par l’essor de l’Internet des Objets, un secteur dans lequel la France est en pointe (comme l’a montré le succès de la présence française FrenchTech au CES de Las Vegas).

CES

Pour que la France puisse développer et conserver son avantage, il faut trouver les moyens d’accélérer la transition entre la recherche académique, encore principalement financée par l’Etat, et l’industrie. Car aujourd’hui, ce sont parfois d’autres acteurs qui puisent dans le réservoir français de compétences issu des investissements étatiques et n’hésitent pas à investir pour financer la continuité du processus de maturation.

Soutenir, accompagner, investir dans la recherche sur l’IA, c’est pouvoir continuer à disposer d’une base industrielle et technologique de défense performante, à la fois pour garantir notre sécurité intérieure, prévenir toute surprise stratégique, mais également pour rester un pays influent dans le monde.

Pourquoi ce billet ? Parce que pour l’instant, même si la DGA lance un programme ambitieux sur le domaine, j’ai un sérieux doute sur la pérennisation des budgets de recherche et d’innovation, à l’heure où 2,7 milliards sont encore gelés. Le risque serait – par exemple pour le domaine de l’IA – de ne vouloir compter que sur le monde civil pour développer cette capacité, qui serait ensuite « adaptée » par les gentils industriels en autofinancement. A cela, deux commentaires.

En premier lieu, les technologies les plus « différenciantes » ont tendance… à être rachetées. A titre d’exemple, voici un graphique qui montre toutes les acquisitions récentes dans le domaine de l’IA par des grands acteurs transnationaux. Autant de technologies « perdues » ou diluées pour le monde de la défense.

ttimeline

Ensuite, la transposition ne peut être simple et directe. Tout n’est pas dual, et c’est bien le rôle des industriels de défense de travailler avec les start-ups, avec les laboratoires, avec la DGA, avec les Forces, pour pouvoir développer une technologie adaptée aux défis capacitaires actuels. Ne faisons pas l’erreur de croire que le monde civil va résoudre les problèmes des militaires: il faut maintenir un effort d’étude, de recherche industrielle, financée par la Défense afin de s’assurer d’aller assez vite, et surtout dans les bonnes directions.

imgp

Ne désarmons donc pas, ni dans ce domaine, ni dans d’autres domaines stratégiques comme les armes à énergie dirigée, le calcul et la cryptographie quantique, ou encore l’hypervélocité. Il en va de notre autonomie stratégique, de notre rang dans le monde, mais aussi du maintien de notre base industrielle. La recherche de défense doit être préservée, pour le succès des armes de la France.

othel6

Pour ceux d’entre vous qui ont vu le film Ocean’s Thirteen, vous vous souvenez peut-être d’une scène dans laquelle un membre de la bande, faux croupier, doit passer au détecteur de mensonges pour se faire recruter. Pour le tromper, il introduit une punaise dans sa chaussure, qu’il presse contre le pied à chaque fois qu’une question gênante est posée. La vive douleur provoquée permet de camoufler la fausse réponse donnée, le polygraphe (détecteur de mensonge) n’y voit que du feu.

othel7

Pure imagination de scénariste ? Non, une bonne connaissance du système nerveux, et une technique appliquée de camouflage des émotions. Car il est complexe de mentir sans se trahir, et certains experts ont fait leur spécialité de démasquer les menteurs par des techniques, outillées ou non, de sciences comportementales appliquées.

logo-rouge-fond-transparent-5000x1100

C’est le cas de la société strasbourgeoise OTHELLO, récemment labellisée dans le cadre du programme GENERATE d’accompagnement des start-up innovantes pour le domaine aéroterrestre et de la sécurité lancé par le GICAT, programme dont nous avons déjà parlé (voir cet article).

gicat1

OTHELLO est une petite société récemment lancée par deux associés (en 2015) en fédérant les travaux d’une équipe de chercheurs en sciences sociales. Elle dispose d’un réseau d’une dizaine d’experts en sciences comportementales. Dirigée par Camille Srour, photo ci-dessous, un homme à qui il est difficile de mentir (et pour cause), son objectif est de proposer des prestations de services et de conseil dans le domaine des sciences comportementales.

othel1

Mais au-delà de l’expertise incontestable de ses dirigeants, la société développe également des technologies d’automatisation de mesure des comportements verbaux, paraverbaux et non verbaux – en particulier, la via mesure automatique des expressions faciales d’émotions sur une vidéo.

Car notre expression nous trahit. Déjà, le célèbre psychologue américain Paul Ekman avait répertorié plus de 10 000 mimiques faciales universelles trahissant nos émotions. Ces micro-expressions, durant en moyenne 0.25 sec, sont caractéristiques, et peuvent être exploitées pour déterminer l’état de la personne examinée. C’est d’ailleurs le fondement d’une discipline appelée « mentalisme » dans laquelle certains magiciens (qui sont en fait des experts entraînés en sciences comportementales) devinent le nombre, le mot ou la carte que vous avez choisie. Pour ma part, j’aime bien les spectacles de Fabien Olicard : si vous voulez vous détendre un peu, voici un extrait de ce qu’il est possible de faire en utilisant cette technique.

Mais revenons à OTHELLO. La société s’est fait une spécialité de détecter, qualifier et mesurer les comportements. Pour cela, elle s’appuie sur une méthodologie éprouvée et surtout validée scientifiquement. Elle a mis également en place des outils, comme le montre l’image ci-dessous présentant l’analyse automatique des expressions non verbales (détection des émotions).

othel2

Et OTHELLO a appliqué notamment cette approche durant la campagne présidentielle, non seulement en analysant les postures et gestes des candidats eux-mêmes, mais aussi en mesurant les émotions d’un panel de 211 électeurs. Leurs expressions faciales ont ainsi été enregistrées seconde par seconde via leurs webcams pendant qu’ils regardaient des extraits des 5 principaux candidats (E. Macron, M. Le Pen, F. Fillon, J-L . Mélenchon et B. Hamon). Car les fondateurs du groupe OTHELLO sont certifiés FACS (Facial action coding system) et ont appliqué cette méthode (définie par Paul Ekman) entre autres outils pour déterminer automatiquement les contractions ou décontractions du visage et émotions associées. Ils utilisent également les analyses de Daniel Kahneman, prix Nobel 2002.

Le résultat est bluffant : après le premier tour, les experts ont montré (scientifiquement) qu’Emmanuel Macron semblait être le seul candidat à susciter un vote enthousiaste, tandis que le vote Marine Le Pen demeurait un vote contestataire.

othel3othel4othel5

OTHELLO était également présente lors du dernier salon SOFINS, car dans le domaine de la défense et de la sécurité, les techniques employées sont bien évidemment critiques. Ainsi, on pourrait imaginer détecter automatiquement des informations utiles pour un service de renseignement, en analysant des informations en source ouverte, images, vidéos, sons et en utilisant les techniques précédemment énoncées. Celles-ci ne se limitent pas à l’image ou à l’analyse des émotions : en fusionnant l’analyse de données multiples, il s’agit de pouvoir extraire de l’information sémantique utile.

othel9

Cela pose donc les jalons d’une plate-forme d’analyse de données multi-sources, utilisant des techniques d’analyse comportementale évoluées. Bon, je ne rentre pas dans le détail des premières idées d’applications, pour des raisons évidentes.

Au-delà, il est intéressant d’utiliser ces techniques afin de former agents aux méthodes scientifiques de Détection du mensonge en entretien – c’est l’une des spécialités d’OTHELLO. Une autre idée: l’aide à la négociation en situation de crise, afin d’avoir une évaluation fine de l’état mental de la personne avec qui on négocie.

La proposition de valeur de la société? Construire des modèles statistiques d’aide à la décision, spécifiquement adaptés à chaque situation de terrain, et permettant de distinguer mensonge et vérité à des taux supérieurs à 75%. Pas mal…

othel8

Et notre polygraphe peut-il être trompé comme dans la scène du film Ocean’s 13 ? Eh bien oui, car la douleur, comme d’autres effets physiologiques, semblent jouer un rôle dans l’inhibition des manifestations externes du mensonge. Dans le blog de l’équipe d’OTHELLO, on découvre par exemple qu’une étude a démontré que le fait d’avoir envie d’uriner aiderait à mentir plus efficacement. C’est un effet baptisé ISE pour Inhibitory-Spillover-Effect : réprimer son envie pressante permettrait d’inhiber la tendance naturelle à dire la vérité, les zones cérébrales concernées par les deux effets étant partagées (notamment dans le cortex préfrontal et le cortex cingulaire antérieur). Une technique à utiliser avec modération, bien évidemment…

 

skred1

Pour cet article, je vous propose de nous intéresser un peu à ce que l’on appelle la « souveraineté numérique ». Imaginons : nous sommes en 2023, et une crise économique et diplomatique majeure s’installe avec une puissance étrangère fictive que l’on appellera, pour l’illustration, la Trumpdavie (ce n’est qu’un exemple!). Du jour au lendemain, tous les comptes Gogolmail (sic), tous les carnets d’adresse Outlouque (re-sic), bref toute l’identité numérique du citoyen français est exploitée par le complexe militaro-industriel de Trumpdavie. Les données de géolocalisation de chaque individu sont décortiquées et recoupées, ainsi que celles de tous ses contacts. Des photos sont dévoilées, des emails sont analysés, des identités révélées et d’innombrables comptes bancaires piratés. Les sociétés transnationales, en liaison avec la National Supremacy Agency (oui oui, la NSA) de Trumpdavie sont chargées de déposséder les citoyens français de leur identité numérique. Sans compter les services régaliens, comme la distribution d’énergie, les transports, les télécommunications, instantanément destabilisés.

skred3

Fiction ? Non, selon Pierre Bellanger (ci-dessus), patron atypique, enthousiaste, libre penseur et président de la radio Skyrock, que j’ai récemment rencontré et qui a publié un livre sur le sujet de la souveraineté numérique. Parmi ses idées : créer un commissariat à la souveraineté numérique, développer des voies de cryptographie permettant en France de créer une « frontière du chiffrement », développer un système d’exploitation souverain, un socle permettant à l’écosystème numérique français de garantir son indépendance, et préserver les données personnelles.

Selon lui : « quand un individu donne accès à son carnet d’adresse, il fournit des informations sur lui-même, mais aussi sur d’autres sans que ces autres en soient informés et bien sûr sans qu’ils aient donné leur autorisation ».

D’où son idée disruptive : développer un système de messagerie sécurisée, et sans carnet d’adresse ! Bizarre dites-vous ? Eh bien c’est chose faite aujourd’hui : avec Jérôme Aguesse, directeur général adjoint du pôle numérique de Skyrock et pilote du projet, il lance son application gratuite Skred.

skred2

Développée par une société nommée CASCADIA, Skred est en effet une messagerie libre, cryptée, et surtout…sans carnet d’adresse!  L’idée est astucieuse : au lieu de stocker des contacts (le sujet A stocke l’adresse de son contact B), ce ne sont que les liens qui sont stockés (le lien AB) et cela uniquement en association avec les terminaux doivent communiquer entre eux.

Cela crée une relation anonyme, unique et sécurisée avec chacun des contacts. Seuls les deux participants à cette relation peuvent échanger entre eux et personne d’autre…Les échanges sont chiffrés de bout en bout et de mobile à mobile, sans être stockés sur aucun serveur. Les technologies de chiffrement sont open source et reprises des travaux des hackers et citoyens activistes du Guardian Project, une initiative créée en 2009, visant à conférer un degré de protection accru pour les échanges privés sur les messageries Android.

skred5

L’origine du projet ? Des discussions et collaborations entre les fondateurs, et l’INRIA (Institut National de Recherche en Informatique et Automatique), qui a notamment développé la technologie TwinLife, dont l’idée est d’éviter de divulguer son identité numérique, facilement « capturable », et au contraire, de valoriser le lien, le contact avec son interlocuteur. Dans Skred, le terminal est associé au lien entre l’utilisateur et ses « contacts ». Pour créer ce lien, on utilise un « Skredcode » que l’on peut partager à d’autres personnes directement à proximité en le faisant scanner comme un QR-Code via la caméra du smartphone, ou que l’on peut envoyer sous forme de lien d’invitation par mail, SMS, etc.

skred4

Le système est crypté de bout en bout, il utilise la technologie WebRTC, et permet les conversations en voix, données et vidéo de manière anonyme et sécurisée avec tous les contacts, sachant que seuls les deux participants à cette relation peuvent échanger entre eux, personne d’autre ne pouvant intercepter cet échange. D’ailleurs, le contenu des échanges n’est pas stocké sur les serveurs de Skred : ce sont les mobiles des deux interlocuteurs qui se connectent pour échanger le message, l’application se bornant à notifier le destinataire qu’un message est disponible.

De plus, si vous effacez un message sur Skred, il s’efface aussi dans le mobile de votre correspondant. Bien évidemment, pas besoin de carte SIM dédiée: Skred s’adapte au réseau auquel il a accès – on peut ainsi accéder à Skred via une simple connexion wifi. La vidéo de présentation est disponible ici :

Mais cela va plus loin : en effet, Skred permet de créer des relations à différents « niveaux » de profondeur. On appelle cela le Skredboard. Comme le disent les concepteurs « le Skredboard permet de créer de nouveaux profils invisibles depuis vos premiers profils et dont l’accès est protégé par un code que vous définissez. Les contacts que vous ajoutez ensuite sont également protégés et ne peuvent vous contacter ou être contactés que lorsque vous activez votre niveau par son code. »

On peut voir cela comme des « univers parallèles », qui permettent chacun d’entrer en relation avec les liaisons qui sont associées à un niveau de profondeur donné. Et il peut y avoir beaucoup de niveaux. Autrement dit (et j’essaie de simplifier l’explication, ce qui n’est pas évident) : si l’on se fait dérober son terminal : (1) le voleur n’a pas accès à l’identité ou aux coordonnées de chaque relation, il est juste capable de rentrer en relation sauf si le vol est signalé – donc pas de capture du carnet d’adresse puisque ce dernier n’existe pas (2) il n’a accès qu’aux relations d’un niveau donné, sans savoir combien de niveaux relationnels sont présents, et à quelle profondeur ils sont accessibles.

skred6

Personnellement je trouve que Skred est une application intéressante et élégante, reposant sur un concept innovant, et qui pose les bases d’une messagerie sécurisée et « impiratable ». Bon, et si des terroristes utilisaient, comme Telegram, Skred pour communiquer sans être identifiés ? Disons que le cas est prévu, que les concepteurs sont patriotes et responsables, et qu’ils appliquent strictement la loi républicaine. Skred applique le droit français – c’est déjà bien plus que les autres applications de messagerie existantes.

Si vous voulez vous faire une idée, Skred est disponible gratuitement sur iOS et Android, et téléchargeable sur http://skred.mobi

 

 

molec2

Note préliminaire : étant directement impliqué dans le Hackaton Marine Nationale qui vient de s’achever, je prie mes lecteurs de m’excuser pour le rythme ralenti de publication de ces derniers jours : mon travail m’occupant la journée, et le Hackaton mes nuits (en tant qu’officier de réserve), il m’était difficile de poursuivre intensément toutes mes autres activités.  

Nous avions déjà parlé de l’ordinateur quantique et de ses implications pour le monde de la défense (voir par exemple cet article). La société IBM annonce d’ailleurs avoir développé et déployé deux nouveaux ordinateurs quantiques à 16 et 17 qbits, au sein de son centre de recherche Q Lab (ci-dessous), un progrès significatif dans la mesure où leur prédécesseur ne comportait que 5 qbits.

molec1

L’ordinateur quantique est l’une des révolutions portées par un nouveau domaine, l’informatique moléculaire (molecular informatics en anglais). Comme son nom l’indique, il s’agit de stocker et de traiter l’information en se fondant sur les propriétés des molécules, au lieu d’utiliser le silicium. Il s’agit d’un nouveau champ de recherche, mêlant informatique, chimie, mathématiques et ingénierie.

L’idée en soi n’est pas nouvelle ; elle consiste à utiliser les propriétés des molécules : charge, structure, volume, polarité… pour concevoir de nouveaux modèles de calcul et de stockage, allant bien au-delà des capacités des machines traditionnelles. Plusieurs expérimentations sont en cours depuis longtemps. Ainsi, on connaît les puces « à ADN » (à ne pas confondre avec les DNA Chips, des dispositifs de biologie moléculaire), qui ont vu le jour en 1994. Inventé par un chercheur, Leonard Adleman, le principe repose sur les propriétés de la molécule d’ADN. Il s’agit de coder un problème non avec des 0 et des 1 mais en utilisant les quatre constituant fondamentaux (bases) de l’ADN : la Cytosine, la Guanine, la Thymine et l’Adénine (oui, je suis biologiste au départ). En gros, on code un problème en utilisant des séquences A,T,G,C dans une molécule d’ADN. Juste pour rappeler :  les bases A se lient aux T, les G se lient aux C ; cette propriété permet d’hybrider deux molécules d’ADN, ou d’en lier certaines séquences.

molec3

En utilisant ce principe, on peut trouver une solution à un problème de recherche combinatoire (en utilisant toutes les combinaisons de molécules, et leur hybridation, ce qui réalise, en quelque sorte, un ordinateur parallèle), mais on peut également créer des « portes logiques » (des « aiguillages logiques », à la base de l’informatique, comme ET, OU, XOR…) en se reposant sur les liaisons entre molécules d’ADN. Je ne rentre pas dans les détails, voici par exemple un article expliquant le principe, dans des termes assez simples.

L’intérêt, c’est de pouvoir, dans un volume très réduit, disposer de millions de milliards de molécules, constituant ainsi un ordinateur parallèle extrêmement compact. Cela permet donc de pouvoir, en théorie, traiter des problèmes complexes : optimisation combinatoire, apprentissage, analyse de signal ou d’image, etc… Bien évidemment, si cela fonctionnait aujourd’hui, cela se saurait. Les limitations sont dues à la complexité – et à la lenteur – de cette technologie. C’est pourquoi ce champ de recherche est resté « en friche » depuis deux décennies.

molec4

Ce qui explique l’explosion du domaine aujourd’hui, c’est que le volume et la complexité des données devant être traitées et stockées (« Big Data ») mène les architectures informatiques classiques à leurs limites. Il devient donc urgent de trouver des moyens efficaces de traiter l’information, mais aussi de la stocker. L’informatique moléculaire répond à ces deux impératifs.

Reprenons notre exemple de l’ordinateur à ADN. Des chercheurs de l’université de Manchester ont montré qu’il était extrêmement intéressant dans le domaine du stockage de l’information, grâce à sa propriété d’auto-réplication. Là aussi, simplifions : un gramme d’ADN peut stocker l’équivalent d’un Téraoctet d’informations. Mais surtout, l’ADN peut s’auto-répliquer. On a donc l’équivalent d’un disque dur capable d’augmenter sa capacité en cas de besoin. Cette propriété d’auto-réplication peut d’ailleurs être également utilisée en termes de calcul, pour explorer deux voies de recherche à la fois.

Imaginez donc les implications : des ordinateurs parallèles et des bases de données gigantesques tenant dans un volume extraordinairement compact. Bon, le souci c’est notamment le prix : l’ADN doit être synthétisé et cela coûte cher. On estime que le stockage d’1 MB en utilisant l’ADN coûterait aujourd’hui entre 10000 et 15000 EUR.

molec5

Il y a donc de nombreux défis inhérents à la technique de l’informatique moléculaire. Mais le domaine est en plein développement, qu’il s’agisse d’élaborer des mélanges moléculaires complexes pour le calcul, de développer des portes logiques biomoléculaires, ou de synthétiser de nouveaux polymères (la liste n’est pas exhaustive). Par exemple, les molécules polyoxométalates (POM) – ci-dessus- peuvent agir comme des nœuds de stockage permettant de créer des mémoires Flash à l’échelle nanométrique.

Pour développer le domaine, il faut, en particulier, dépasser les limitations de l’ordinateur à ADN, qui nécessite d’utiliser un ordinateur traditionnel pour récupérer et traiter l’information, ralentissant donc singulièrement le processus, et diminuant l’intérêt du système.

DARPA Vector Logo.eps

C’est pourquoi la DARPA vient de lancer un appel à propositions, afin d’identifier des programmes et pistes de recherche permettant de lever ces limitations. Car l’implication pour le monde de la défense est considérable, dans des domaines comme le traitement d’images pour la reconnaissance, la guerre électronique, le renseignement SIGINT, le traitement des données sur le théâtre d’opérations, etc.

La première phase (18 mois) du programme de la DARPA consistera à élaborer des stratégies de codage de l’information et de calcul en informatique moléculaire. La seconde phase (de 18 mois également) consistera à intégrer et démontrer la pertinence de ces stratégies en codant et en traitant de gros volumes de données. Le défi ? Démontrer la capacité de traiter et stocker 1 GB de données en utilisant un système biomoléculaire d’une densité de 1018 octets par mm3 !

Pour les lecteurs intéressés, l’appel à propositions de la DARPA peut être trouvé ici. Vous avez jusqu’au 12 juin, donc bon courage 🙂