Articles Tagués ‘Spike’

corti6

La vision artificielle a fait des progrès considérables dans ces dernières années, avec certes le développement de nouveaux capteurs, mais aussi en raison de l’apparition à la fois de processeurs spécialisés adaptés spécifiquement à cette problématique, et de nouveaux algorithmes, capables de fonctionner en temps réel, ce qui était inconcevable il y a quelques années. Dans ce domaine, de nombreuses sociétés apparaissent, mais celle-ci semble développer une approche originale, et que je pense assez adaptée (je vous dirai pourquoi).

corti1

Cortica est une société israélienne, issue du célèbre Technion, l’équivalent israélien du MIT. La société a été fondée en 2007 par trois chercheurs spécialisés dans l’informatique, l’ingénierie et les neurosciences, dont son dirigeant actuel, Igal Raichelgauz. Après avoir levé un financement d’environ 40M$, la société compte aujourd’hui une équipe conséquente de chercheurs en IA, mais également des experts militaires issus de la communauté israélienne du renseignement ( !) ce qui en dit long sur les applications visées.

L’approche de CORTICA est résolument inspirée par la biologie, et en particulier par le fonctionnement du cortex visuel primaire. Elle développe en effet une technologie d’apprentissage non supervisé (pour faire simple, je rappelle que l’apprentissage non supervisé a pour objectif de découvrir de la valeur dans des données qui ne sont pas structurées a priori, afin de réaliser une extraction de connaissances) afin de disposer d’une IA capable de comprendre l’image « comme un humain ».

corti2

En gros, l’IA cherche à identifier par elle-même des caractéristiques, des motifs (patterns), des relations entre différentes images, et ce de manière autonome, l’ambition étant – je cite – de constituer « un index universel visuel du monde ». Pour ce faire, la société a conçu une architecture d’apprentissage qui s’inspire du cortex visuel primaire des mammifères – peu de détails ont filtré, mais on peut imaginer en particulier qu’il s’agit de coder ce que l’on appelle des neurones à spikes – pour une description plus détaillée, je vous propose de relire cet article.

Cette architecture cherche à permettre un apprentissage non supervisé par observation, ce que l’on pourrait appeler de l’apprentissage prédictif (c’est le terme employé par Yann le Cun, chercheur en IA et directeur du laboratoire parisien d’IA de Facebook). En gros, au lieu de devoir constituer de grosses bases de données d’images « labellisées », donc traitées au préalable afin d’expliquer au système ce qu’il est supposé reconnaître, on présente à l’IA des images, et – comme un nouveau-né qui commence à observer le monde – elle apprend progressivement le sens et les relations entre ces différentes images présentées. Si je crois particulièrement à cette approche et surtout à l’inspiration biologique du cortex visuel primaire, c’est parce que dans ma – de plus en plus lointaine – jeunesse, j’ai travaillé au sein du groupe de bioinformatique de l’Ecole Normale Supérieure sur le sujet de l’apprentissage et de la vision active, inspirée de la modélisation des colonnes corticales du cortex visuel primaire, et que les résultats préliminaires, alors limités par la puissance de calcul dont nous disposions à l’époque, étaient déjà encourageants.

corti3

Cortica vise à déployer sa technologie en l’embarquant dans différents systèmes, qu’il s’agisse de véhicules autonomes, de systèmes automatiques d’analyse d’imagerie médicale, ou d’applications grand public. Mais on voit immédiatement le potentiel d’une telle technologie dans le domaine de la défense et de la sécurité. Le ROIM (renseignement d’origine image) a besoin de telles technologies afin de pouvoir très rapidement générer des « points d’attention » sur des images (images satellites, caméras de surveillance…) et leur donner du sens.

corti5

Il s’agit donc d’une tendance de fond en IA, qui bénéficie directement à la Défense, et qui est d’ailleurs accompagnée par l’émergence de nouveaux moyens de calcul dédié. Google a présenté récemment son Tensor Processing Unit (ci-dessus, et voir ce lien) qui met en œuvre une accélération hardware des réseaux de type Deep Learning. Mais les réseaux de neurones à spikes – tels que ceux a priori mis en œuvre dans la technologie de Cortica – connaissent un développement important, également en France.

Nous avions parlé dans ce blog du projet AXONE (ci dessous) soutenu par la DGA. Simon Thorpe, le chercheur à l’origine de cette technologie, dirige le CERCO, Centre de recherche sur le cerveau et la cognition (Cerco) – rattaché au CNRS et à l’université Toulouse-III. Via la structure Toulouse Tech Transfer (TTT), il vient de céder une licence d’exploitation de sa technologie de reconnaissance à BrainChip, spécialiste des solutions de reconnaissance pour la surveillance civile et qui avait racheté en septembre la société Spikenet Technology.

corti4

BrainChip utilisera cette technologie en vue d’optimiser son microprocesseur Snap, qui analyse en temps réel des flux vidéo. La tendance de fond semble donc se confirmer, avec de nouveaux acteurs en parallèle des Google, Facebook et autres géants, et avec des applications potentiellement considérables dans le domaine de la Défense et de la Sécurité. En attendant leur portage sur de futurs processeurs neuromorphiques, mais c’est une autre histoire.

Pour faire écho à mon récent billet d’humeur, on voit donc que les technologies d’IA commencent à atteindre un degré de maturité considérable, et suscitent un intérêt certain dans nombre de pays compte tenu des enjeux sous-jacents. A la France de maintenir et d’amplifier l’avance qu’elle possède dans le domaine.

lotus1

De retour de Floride, je peux maintenant achever cette série sur le forum Innovation de la DGA, avec une dernière volée d’innovation (et évidemment, ce n’est pas parce que j’en parle maintenant qu’elles sont moins intéressantes). Bien entendu, je n’ai aucune prétention à l’exhaustivité, et je ne rends compte ici que des innovations que j’ai pu voir ou des équipes de recherche avec qui j’ai pu converser. Vous trouverez sur Internet nombre d’autres articles sur l’événement, mais voici donc la fin de ma sélection toute personnelle.

La feuille de Lotus et l’aéronautique

Encore une innovation parrainée par une personnalité de la DGA, en l’occurrence le pétillant et incisif Ingénieur général de classe exceptionnelle Christian Chabbert: FATAA. L’acronyme (oui, parce qu’à la DGA, on aime bien les acronymes) signifie Film Alternative (sic) au Tedlar (re-sic) ; amélioration d’aéronefs. Et il s’agit d’un sujet qui me parle particulièrement : le biomimétisme (voir cet article pour ceux qui sont intéressés au domaine).

lotus7

L’innovation s’inspire de la feuille de Lotus, et en particulier des capacités superhydrophobes de sa surface. Ce n’est pas un thème nouveau : depuis longtemps, les propriétés de la feuille de lotus sont connues et observées, et plusieurs travaux s’en inspirent. La feuille de ce végétal a en effet la capacité de repousser les gouttes d’eau qui glissent sur sa surface – le résultat étant que la feuille reste toujours propre ce qui permet à la fois de maximiser sa capacité de photosynthèse, et d’éviter toute colonisation microbienne. Cette propriété superhydrophobe est due à une rugosité nanométrique : la surface de la feuille est hérissée de nano-pics eux-même revêtus d’une cire hydrophobe (voir la représentation ci-dessus).

La capacité de la feuille de lotus à s’auto-nettoyer est connue depuis longtemps et inspire de nombreuses innovations (la NASA a elle-même utilisé cette propriété pour développer des textiles autonettoyants pour l’exploration lunaire – voir image ci-dessous, regardez le poster en arrière-plan).

nasabiom

Le projet FATAA quant à lui s’intéresse aux propriétés de cette surface afin de développer une application pour les composites thermodurcissables en aéronautique. Il associe quatre partenaires : les sociétés EXPIRIS et Fluorotechnique, ainsi que l’Université Pierre et Marie Curie et le Collège de France.

L’objectif est de remplacer le Tedlar®, un matériau (polyfluorure de Vinyle) développé par DuPont, et permettant de protéger des surfaces exposées à un environnement hostile. L’objectif de ce projet RAPID de 39 mois était de développer une alternative au Tedlar® (qui fait l’objet d’un arrêt de production pour son utilisation aéronautique) en améliorant la performance de la protection, l’étanchéité, la facilité de mise en œuvre, et de répondre au défi de l’obsolescence, tout ceci dans une perspective de développement durable.

lotus2

Le résultat ? Un revêtement en spray, éco-neutre et inerte chimiquement, que l’on peut appliquer sur une structure composite (on peut même le peindre après coup). En mimant, à l’échelle nanométrique, les propriétés de la feuille de lotus, on obtient un résultat d’autant plus impressionnant que le film est appliqué en spray. Sur l’image ci-dessous, on voit les gouttes glisser sur la surface traitée (contour rouge) alors que sur le lettrage, non traité, elles s’étalent (contour bleu).

20161123_140146_resized

Un projet novateur, et dual, avec des applications hors domaine de la défense, en photovoltaïque ou en aéronautique civile. En tout cas une innovation impressionnante à la fois en termes de capacité et de facilité de mise en oeuvre.

Les capteurs abandonnés et neurones à spikes

Un petit ajout à mon article sur AXONE, après avoir rebouclé vers le directeur de l’ISL, Christian de Villemagne : j’ai écrit à tort que le FPGA était uniquement conçu par la société Global Sensing Technologies. En réalité, le classifieur est un produit ISL, GST ayant intégré la technologie SpikeNet dans AXONE. Le projet SmartCam utilise d’ailleurs cette architecture (les cartes étant celles utilisée dans le projet AXONE).

lotus3

Au passage, cette technologie de classifieur par FPGA capable de faire de la reconnaissance de forme et développée par l’ISL a été récompensée par le prix 2016 de l’Ingénieur Général Chanson (un prix décerné chaque année par l’Association de l’Armement Terrestre (AAT), récompense des travaux permettant des progrès importants dans le domaine).

lotus4

En l’occurrence, il s’agissait de mettre en œuvre cette approche au sein d’un capteur autonome intelligent abandonné dénommé B-SAVED, doté d’une autonomie de 4 jours, et possédant, outre l’IA embarquée, un GPS et un module de communication. La version actuelle a été développée pour le 13e RDP.

lotus5

Voila, ce petit rectificatif méritait d’être mentionné. Outre les innovations décrites, de nombreux autres projets étaient présentés lors du forum (citons ainsi les projets de détection et de classification de cibles multispectrales dans l’infrarouge, de vision au-delà d’un obstacle par utilisation des multi-réflexions de photons, de la pile à combustible du fantassin, d’un réservoir capable de résister à l’impact d’une balle de 12,7 mm ou encore de la surveillance automatique des ondes cérébrales (projet MEEGAPERF) pour repérer les signes dans l’activité cérébrale qui permettent d’anticiper des ruptures de performances). Mais ce sera pour une autre fois…

20161123_115905_resized

Vous êtes quelques-uns à reprocher (gentiment) à ce blog une certaine orientation vers la recherche américaine. Ce n’est pas une volonté, mais une conséquence (1) des conséquents budgets américains en termes de R&D de défense et (2) d’une maîtrise certaine de la communication par nos voisins outre-Atlantique (les amenant d’ailleurs parfois à communiquer avec un certain talent des programmes politiques n’ayant pas grand-chose à voir avec la réalité, je dis ça comme ça….).

Une fois par an, la DGA organise son Forum Innovation. C’était hier et aujourd’hui, sur le site de Palaiseau, et pour le coup, cela amène une réelle volonté active de communication de la part à la fois de institutionnels, mais aussi des laboratoires et des petites entreprises. J’ai donc fait mon marché de l’innovation, en voici un premier résultat.

20161123_115841_resized

Le projet s’appelle AXONE. Il s’agit d’un système neuronal artificiel capable de réaliser des tâches d’analyse de scène en temps réel. Il s’agit du résultat d’un projet RAPID (Régime d’Appui pour l’Innovation Duale – voir la page de référence ici ) associant l’Institut Saint-Louis, la société Spikenet Technologies et la société GlobalSensing Technologies.

L’idée est d’utiliser un certain type de réseaux de neurones artificiels, les neurones à Spike, pour procéder à l’analyse en temps réel d’une scène visuelle, et de les embarquer sur des composants dédiés (SoC ou Systems on Chips). Je vais essayer d’expliquer simplement le concept – et ce, d’autant plus que j’avais travaillé il y a plus de vingt ans avec le Pr Simon Thorpe, créateur de la technologie SpikeNet (il me semble que j’ai même commis un article sur le sujet…).

20161123_115838_resized

Pour faire simple : en neurobiologie, on se pose depuis longtemps la question de la nature du codage de l’information par les neurones. La théorie générale est fondée sur un codage fréquentiel de l’information (fréquence des décharges électriques). Mais il existe une autre théorie reposant sur un codage temporel de l’information : le codage serait fait par des impulsions (spikes) ou plus précisément par les instants d’émission des impulsions. On prend donc en compte l’aspect temporel. Un réseau artificiel de neurones à spike est conçu pour simuler des réseaux qui contiennent un nombre très grand de neurones à décharge asynchrone et qui apprennent par codage des séquences de décharge. On appelle cela le codage par rangs (évidemment, je simplifie). Cette technologie est très utilisée pour la reconnaissance de formes, et en particulier le traitement d’images.

L’intérêt de cette technologie est que le temps d’apprentissage est très rapide, et très tolérant (aux conditions d’illumination, au bruit, aux contrastes…). Dans le projet AXONE, les participants ont ainsi pu implanter un réseau de neurones à spike sur une carte dédiée (ce que l’on appelle un processeur FPGA). En gros, il s’agit d’un processeur reconfigurable, comportant 1024 neurones artificiels, et conçue par la société GlobalSensing Technologies. Avec SpikeNet et l’ISL, et en 24 mois, les acteurs du projet AXONE ont réalisé une caméra reconfigurable générant des Spikes en lieu et place des images. Le travail a ainsi consisté (outre évidemment l’algorithmique sous-jacente) à intégrer ce réseau de neurones artificiel avec un capteur, au sein d’une caméra autonome, et de développer la librairie logicielle pour la mise en œuvre de ces composants.

20161123_115903_resized

Et le résultat est impressionnant. Lors de la présentation au Forum DGA, on a pu ainsi visualiser la reconnaissance de visages en temps réel (chaque visage est reconnu, en temps réel, avec sa signature unique). Les applications sont nombreuses : sécurité et surveillance de sites sensibles avec levée de doute par la caméra elle-même, capteurs abandonnés capables de réaliser une analyse in situ (voir mon article sur l’IA embarquée), et évidemment, augmentation de la capacité de reconnaissance de forme en robotique et en particulier pour les drones.

20161123_115855_resized

J’ajoute que la DGA a pris une initiative originale : celle de faire parrainer certaines innovations par des personnalités de l’institution. En l’occurrence, AXONE est parrainée par l’excellent Lionel MORIN, directeur du CATOD (Centre d’Analyse Technico-Opérationnelle de Défense) – ci-dessous.

20161123_123107_hdr_resized

Une technologie à suivre, et une excellente illustration des capacités d’innovation de l’écosystème français de la Défense – je publierai d’ailleurs bientôt d’autres articles suite à ma visite sur le forum Innovation.