Articles Tagués ‘simulation’

DSC_0605

J’espère que vous me pardonnerez de faire, pour une fois, un peu de publicité personnelle… Mais pour le coup, je ne résiste pas au plaisir de partager avec vous cette nouvelle. Voici donc le communiqué de presse envoyé ce jour. Les publications « normales » de ce blog reprendront dès demain.

CMI Defence SAS, filiale française du Groupe CMI (Cockerill Maintenance & Ingénierie), leader dans le domaine des systèmes d’armes intégrés sur véhicules blindés à grande mobilité et des solutions d’assistance technique et tactique, et SILKAN, spécialiste français des solutions de simulation virtuelle et des solutions d’interconnexion temps réel pour systèmes critiques, s’allient pour donner naissance à la coentreprise AGUERIS, nouvel acteur de la simulation militaire terrestre.

Les deux sociétés écrivent ainsi une nouvelle étape de leur histoire commune : SILKAN et CMI Defence collaborent depuis plusieurs années pour concevoir et déployer un nouveau type de simulateur virtuel  dédié à l’entraînement des équipages de tourelle. Cette collaboration a permis de développer le premier simulateur embarqué de tourelle au monde, reposant sur la connexion de la tourelle du véhicule réel à un poste instructeur. L’équipage transforme ainsi son blindé en simulateur à part entière.

Créée le 30 avril 2015, AGUERIS a vocation à devenir un acteur de référence dans le domaine de la simulation militaire terrestre, avec une offre de simulateurs d’entraînement technique et tactique pour le domaine terrestre, et la réalisation de produits technologiques novateurs dans le domaine de la simulation d’entraînement.

« Il s’agit pour CMI Defence de rester présent au plus près de nos clients tout au long du cycle de vie de nos produits, en proposant une offre complète et compétitive autour de nos systèmes d’armes» déclare Jean-Luc Maurange, Président de CMI Defence.

Pour SILKAN, et son Président-directeur général François Guérineau, « l’alliance avec un industriel de la dimension de CMI Defence va permettre de développer l’avance acquise par les équipes de SILKAN dans le domaine de la simulation militaire terrestre en proposant une gamme de produits de référence à l’international. Le partenariat technologique avec la coentreprise renforcera également les capacités de SILKAN sur ses propres marchés, en particulier la simulation d’entrainement aéronautique».

AGUERIS est basée à Meudon (Hauts-de-Seine, France). Les membres de son comité de direction sont issus du domaine de la défense et de la simulation : Bernard Clermont  en sera le président, Emmanuel Chiva  assurera les fonctions de directeur général adjoint en charge de la stratégie et du développement et Benoit Rolland  est nommé directeur des opérations de la nouvelle structure. AGUERIS possède déjà un carnet de commandes lui permettant un démarrage rapide.

ultrahaptic

Dans le monde de la réalité virtuelle, on connaissait déjà les systèmes permettant de fournir des illusions haptiques, telles que la société SENSEG (voir plus bas). Aujourd’hui, c’est la société britannique UltraHaptics qui présente une technologie permettant de créer, à l’aide d’ultrasons, des formes virtuelles tridimensionnelles dans l’air ambiant. Le principe est d’utiliser les ultrasons pour générer des variations de pression donnant à l’utilisateur l’impression qu’il touche une surface ou un objet. Cette technologie, initialement développée par l’Université de Bristol, permet donc d’interagir avec des objets virtuels, de sentir des boutons ou des commandes, ou de fournir un retour d’effort à l’utilisateur. Ultrahaptics a ainsi développé et industrialisé sa solution à partir d’une levée initiale de fonds de 600 000£.

ultrahaptics2

La technologie permet de créer un point de haute pression d’un diamètre minimal de 8,5mm, mais cette forme peut être modifiée pour créer une surface quelconque. Le champ de pression est en effet suffisamment fort pour déplacer très légèrement la peau de l’utilisateur, et lui permettre de ressentir une forme. La vidéo ci-après présente le concept.

Dans le domaine de la simulation, cela permet donc de renforcer l’immersivité d’un utilisateur confronté à un environnement virtuel. Ce n’est pas la première solution de ce type à présenter un tel potentiel. Dans le cas de la solution proposée par exemple par la société SENSEG, s’agit d’utiliser des champs électrostatiques afin de donner l’impression à l’utilisateur qu’il parcourt du doigt des textures différentes. En réalité, l’illusion est générée par la restitution de différents niveaux de friction provoquée par la variation des champs électrostatiques.

En conséquence, l’utilisateur a l’impression qu’il ne touche pas un écran mais bien une surface texturée particulière. De la même manière, la société Elliptic Labs propose une solution d’écholocation des mouvements. Ultrahaptics combine, en quelque sorte, ces deux aspects pour localiser les gestes et donner une illusion haptique. Associée à des modélisations graphiques et/ou sonores, l’impression d’immersion dans un environnement virtuel est fortement renforcée.

Depuis l’essor des masques de réalité virtuelle, Oculus Rift en tête, le marché cherche constamment des solutions permettant de renforcer l’illusion physique, en sus de l’illusion visuelle. Dans le domaine de la préparation opérationnelle et de l’entraînement – soit au maniement d’un système d’armes, soit pour l’entraînement du fantassin débarqué – une telle solution contribuerait à enrichir l’environnement de l’utilisateur, en particulier par le retour de force.

La solution d’UltraHaptics a été présentée et a obtenu un prix au dernier CES de Las Vegas, et les premières applications commerciales devraient être disponibles d’ici un an.

thoughthelmet

Allez, un article un peu plus long : c’est le week-end!

Nous avions évoqué dans cet article l’essor des interfaces permettant de capturer, débruiter et interpréter les ondes cérébrales d’un sujet. En soi, c’est déjà un problème complexe. En effet, plusieurs techniques existent : celles se fondant sur l’activité EEG de l’utilisateur au cours du temps (exemple: rythmes EEG), qui ne nécessitent pas de stimulus externe et celles se fondant sur la mesure des potentiels évoqués (ou Evoked Response Potential, ERP), qui requièrent la présence d’un stimulus précisément daté.

Capturer les signaux

Dans tous les cas, il ne s’agit pas d’une « simple » analyse, comme si l’on lisait directement le cerveau de l’utilisateur. La subtilité consiste, à partir d’un état « brut » capturé via des casques du commerce, d’utiliser des techniques d’analyse de données et d’apprentissage machine afin d’en extraire un « état cérébral » pouvant être utilisé pour surveiller le fonctionnement du cerveau ou déclencher une interaction entre l’homme et la machine. Dans ce domaine, la France est en avance, avec notamment l’INRIA qui a développé la plate-forme open source OPEN VIBE, qui permet de réaliser cet enchaînement de traitements complexes :  capture, prétraitement & filtrage du signal (souvent bruité, en particulier si des électrodes sont placées sur les muscles faciaux, extraction des caractéristiques des signaux, classification.

J’en profite pour mentionner la brillante PME MENSIA Technologies, start-up issue de l’INRIA et du projet ANR OPENVIBE, installée à Rennes et à Paris, et qui a développé plusieurs logiciels commerciaux autour des briques technologiques OPENVIBE. MENSIA TECHNOLOGIES mène en outre plusieurs projets dans le domaine du monitoring et de l’entraînement cérébral basé sur la neurologie quantitative temps réel. Voici ci-dessous une démonstration des outils développés et industrialisés par MENSIA :

Emettre des commandes

Lorsqu’à cette chaîne de traitement (capture=>classification) on ajoute une étape de traduction, on obtient ce que les anglo-saxons appellent « thought controlled computing » : le contrôle commande d’un ordinateur par la pensée. Le résultat est impressionnant, qu’il s’agisse d’un simple « contrôle de l’environnement » à des fins ludiques :

Ou d’un contrôle commande pouvant par exemple pallier un handicap, en permettant d’envoyer des informations de déplacement à un fauteuil, par la pensée :

A quoi cela sert-il dans notre domaine ?

Applications pour la défense

Nous avons déjà évoqué l’utilisation de l’analyse des signaux EEG pour des utilisateurs de simulation. Les modèles et techniques d’analyse pour caractériser l’état cognitif permettent une interprétation automatique de l’état de l’apprenant (stressé, concentré, surchargé d’information,etc…) moyennant une calibration de quelques minutes. Le monitoring au sein du simulateur de l’état cognitif au sens large et de la charge mentale de l’apprenant en particulier, permet ainsi d’envisager une optimisation des processus de formation et d’entraînement, pour une meilleure interaction subséquente des opérateurs avec leur environnement. Le feedback rapporté au formateur pilotant le scénario de formation permettra d’enrichir les outils à disposition pour évaluer les potentialités opérationnelles, ainsi qu’à la possibilité d’amélioration de l’ergonomie des interfaces utilisateurs pour une meilleure efficience du couple opérateur-système.

Au delà de la simulation, en termes de perspectives, la mise en œuvre d’outils de mesure de l’état cognitif dans un simulateur est un premier pas vers la conception de cockpits totalement adaptée au traitement cérébral de l’information. En ce sens, le programme pourra être adapté aux IBEOS (illustrateurs de besoin opérationnel) tels que le simulateur SISPEO mis en service au sein de la DGA (Techniques Terrestres/SDT/IS/S2I, sur le site de Bourges).

Mais dans le domaine du contrôle  commande, des expérimentations sont par ailleurs en cours pour intégrer ces  dispositifs dans des contextes opérationnels : la plus récente à notre connaissance concerne le pilotage d’avion sur un vol complet – pour l’instant dans un simulateur -, atterrissage et décollage inclus :

cockpit

On peut également mentionner le pilotage de drones, la commande neurale permettant de se consacrer à des tâches tactiques complexes en laissant le pilotage de bas niveau à la charge du drone. D’une manière générale, ce type de technologies est adapté au contrôle commande de robots semi-autonomes, et de nombreuses expérimentations sont à l’étude dans ce domaine.

Vers la « télépathie opérationnelle »?

Enfin, la DARPA américaine travaille sur un projet dit « Silent Talk » permettant d’utiliser les IHM neurales… pour faire de la communication de cerveau à cerveau silencieuse sur le théâtre d’opérations. Ce petit projet (financé à hauteur de 4MUSD) est avant tout un projet… de mathématiques. Caractériser, filtrer, isoler et interpréter les signaux pertinents d’un combattant sur le champ de bataille est, d’après le Dr Elmar Schmeisser de l’US Army, un problème mathématique « cruel » qui pourrait mobiliser les équipes de recherche pour 20 ans. L’US Army travaille néanmoins sur le projet d’un « thought helmet » permettant d’ores et déjà de capturer l’état mental du soldat.

bigD

Le « plan d’implémentation » de l’armée de Terre américaine pour les années 2015-2019 vient d’être publié et il fait la part belle au « big data » (traitement automatisé massif de données, combinant techniques statistiques et apprentissage machine).

Cette initiative, baptisée « Very Large Scale Computational Analytics », a pour objectif de fournir une supériorité décisionnelle en « limitant la surprise tactique », en « améliorant la tenue de situation » et afin de « faciliter l’autonomie par le renseignement ».

arl

Concrètement, il s’agit de pouvoir traiter de grandes quantités de données en temps quasi-réel. L’idée est ainsi de connecter un système C4ISR à un système évolué d’analyse de données, en combinant analyse prédictive et simulation. Cela inclut la modélisation de réseaux à grande échelle (incluant les systèmes de cyberdéfense et de guerre électronique),mais également la maîtrise progressive par l’US Army de techniques de distribution multi-échelles et de parallélisation, techniques jusqu’ici essentiellement réservées aux professionnels du calcul haute performance.

Des technologies jusque-là essentiellement confinées dans des laboratoires (apprentissage machine, modélisation multi-agents, parallélisation….) se trouvent donc aujourd’hui au centre des priorités de l’armée américaine pour les 4 ans à venir.

Vous pouvez télécharger le plan complet ici.

frbanner13

(Cet article fera l’objet de plusieurs posts). Les interfaces neurales, vous connaissez ? Loin d’être de la science fiction, il s’agit de pouvoir capturer, traiter et utiliser les informations fournies par vos ondes cérébrales, en temps réel.

Le concept n’est pas nouveau. Depuis très longtemps, à des fins thérapeutiques, ou simplement de recherche académique, de très nombreux dispositifs ont été imaginés afin de capturer les ondes  cérébrales. Toutefois, depuis ces cinq dernières années, on assiste à une explosion du domaine, liée à la fois à la mise en place sur le marché de systèmes « grand public » et à l’apparition de technologies de capture et de traitement dont le coût n’a plus rien à voir avec ce qui était pratiqué jusqu’alors.

L’apparition sur le marché de dispositifs EEG extrêmement légers, faciles d’installation (sans gel de contact) et d’utilisation suscite des travaux originaux : au-delà des célèbres et inutiles oreilles de chat pilotées par ondes alpha (produit Necomimi présenté à la Japan Expo de 2011 par la société japonaise Neurowear), on a vu apparaître ici et là des dispositifs destinés aux joueurs, ou organisateurs d’évènements. Citons par exemple INTERAXON, dont la charismatique CEO Ariel Garten n’hésite pas à payer de sa personne (sic) pour démontrer le potentiel de sa technologie.

En France, le projet ANR OpenViBE 2, a démontré en janvier 2013 que les technologies dites « BCI » (Brain Computer Interface ou Interfaces Cerveau Ordinateur) avaient atteint une maturité suffisante pour être intégrés dans des environnements virtuels commerciaux – nous y reviendrons. Citons également les dispositifs d’EMOTIV (casques de capture low cost) ou de NEUROSKY. Le système BodyWave dont j’ai repris plus haut la publicité, de la société Freer Logic propose de capter les ondes cérébrales sur les bras et les jambes de l’utilisateur.

interaxon section1-epoc

A quoi tout cela sert-il dans le domaine qui est le nôtre ? Au-delà des clichés de science-fiction, l’alliance de l’analyse de l’activité EEG (électroencéphalographique) et l’utilisation des techniques de machine learning (apprentissage automatique) permet aujourd’hui de fournir des informations en temps réel sur l’état cognitif d’un utilisateur, notamment sur son état de vigilance et sa charge mentale. Nous développerons les différentes utilisations dans différents articles, mais j’ai choisi de commencer par deux cas d’utilisation emblématiques.

En premier lieu, la société BrainWave science a développé une technologie de « brain fingerprinting », permettant, en présence d’un suspect, de savoir avec « un taux de succès supérieur à 99% » si ledit suspect a connaissance d’un crime, ou d’un aspect particulier d’un crime. Beaucoup de questions se posent : est-il possible d’utiliser une telle preuve au tribunal ? Sur quoi se fonde le taux de caractérisation ?, etc…  Entre nous, le site Internet fait un peu froid dans le dos, mais je n’ai pas encore recoupé ni analysé les informations pour connaitre le bien-fondé scientifique de la technologie de BWS. A suivre, donc.

Une utilisation bien plus directe se trouve être dans le champ d’activité qui m’occupe depuis de nombreuses années : la simulation. Le principe consiste à équiper de casques légers les opérateurs d’une simulation. Ces casques comportent des capteurs destinés à enregistrer les ondes cérébrales. Il s’agit de casques extrêmement légers pouvant être en particulier portés sous un casque de combat ou de pilotage, et doté d’émetteurs WIFI permettant une liaison avec une station de recueil des signaux.

Lorsque la simulation est lancée, les ondes cérébrales de chacun des opérateurs sont enregistrées par le système. Il s’agit en particulier de mesurer le degré de concentration, le degré de surcharge éventuelle (information overload) vis-à-vis des informations présentées, éventuellement le degré de stress. Bien évidemment ces différentes mesures peuvent être corrélées, et complétées par d’autres indicateurs vitaux (tension artérielle, rythme cardiaque, etc.…).

Il s’agit ensuite de mettre en corrélation les différents événements survenus dans la simulation et les mesures effectuées. Ce faisant, on arrive d’une part à analyser lors d’une séance de re-jeu ou d’analyse après action le comportement des différents opérateurs confrontés à un scénario.et d’autre part, in fine (cela relève encore de la recherche) à adapter le scénario de simulation en fonction de l’état de l’opérateur.

Une telle démonstration avait été présentée lors du salon IITSEC 2012, par une société californienne baptisée Advanced Brain Monitoring (ABM), société initialement spécialisée dans la recherche sur le système nerveux et la psychophysiologie.

ABM2

Un tel feed-back cognitif s’avère utile dans trois contextes :

  • en situation d’apprentissage, pour adapter individuellement la progression des scénarios,
  • en analyse après action (débriefing), pour affiner l’évaluation des progrès du sujet,
  • en situation d’action, pour contrôler le risque de stress cognitif individuel en mission collective.

Nous examinerons dans de futurs articles le potentiel de cette technologie, à la fois sous ses aspects captures, évoqués ici, et sous l’angle du contrôle-commande (thought-controlled computing).