Articles Tagués ‘RV’

ultrahaptic

Dans le monde de la réalité virtuelle, on connaissait déjà les systèmes permettant de fournir des illusions haptiques, telles que la société SENSEG (voir plus bas). Aujourd’hui, c’est la société britannique UltraHaptics qui présente une technologie permettant de créer, à l’aide d’ultrasons, des formes virtuelles tridimensionnelles dans l’air ambiant. Le principe est d’utiliser les ultrasons pour générer des variations de pression donnant à l’utilisateur l’impression qu’il touche une surface ou un objet. Cette technologie, initialement développée par l’Université de Bristol, permet donc d’interagir avec des objets virtuels, de sentir des boutons ou des commandes, ou de fournir un retour d’effort à l’utilisateur. Ultrahaptics a ainsi développé et industrialisé sa solution à partir d’une levée initiale de fonds de 600 000£.

ultrahaptics2

La technologie permet de créer un point de haute pression d’un diamètre minimal de 8,5mm, mais cette forme peut être modifiée pour créer une surface quelconque. Le champ de pression est en effet suffisamment fort pour déplacer très légèrement la peau de l’utilisateur, et lui permettre de ressentir une forme. La vidéo ci-après présente le concept.

Dans le domaine de la simulation, cela permet donc de renforcer l’immersivité d’un utilisateur confronté à un environnement virtuel. Ce n’est pas la première solution de ce type à présenter un tel potentiel. Dans le cas de la solution proposée par exemple par la société SENSEG, s’agit d’utiliser des champs électrostatiques afin de donner l’impression à l’utilisateur qu’il parcourt du doigt des textures différentes. En réalité, l’illusion est générée par la restitution de différents niveaux de friction provoquée par la variation des champs électrostatiques.

En conséquence, l’utilisateur a l’impression qu’il ne touche pas un écran mais bien une surface texturée particulière. De la même manière, la société Elliptic Labs propose une solution d’écholocation des mouvements. Ultrahaptics combine, en quelque sorte, ces deux aspects pour localiser les gestes et donner une illusion haptique. Associée à des modélisations graphiques et/ou sonores, l’impression d’immersion dans un environnement virtuel est fortement renforcée.

Depuis l’essor des masques de réalité virtuelle, Oculus Rift en tête, le marché cherche constamment des solutions permettant de renforcer l’illusion physique, en sus de l’illusion visuelle. Dans le domaine de la préparation opérationnelle et de l’entraînement – soit au maniement d’un système d’armes, soit pour l’entraînement du fantassin débarqué – une telle solution contribuerait à enrichir l’environnement de l’utilisateur, en particulier par le retour de force.

La solution d’UltraHaptics a été présentée et a obtenu un prix au dernier CES de Las Vegas, et les premières applications commerciales devraient être disponibles d’ici un an.

bv4

J’avais déjà écrit un article sur JFX3, le programme sur la réalité augmentée conduit par nos amis britanniques. Aujourd’hui, focus sur un programme Français ayant pour but de fournir une visualisation immersive et interactive de l’espace de bataille numérisé, et qui a fait l’objet de démonstrations remarquées lors d’Eurosatory et d’Euronaval : Battlespace Vista, développées par THALES (TCS, TRT et TRS).

Cela fait longtemps que THALES réfléchit sur la meilleure manière d’appréhender l’espace de bataille moderne, qui regroupe les champs physiques de mer, terre, air et espace, avec le champ immatériel de l’information. En effet, la  numérisation de cet espace repose sur l’intégration des réseaux de communications tactiques (liaisons de données, messageries sur réseaux H/V/UHF) et des systèmes d’information opérationnels communicants. Si cette numérisation produit de puissants multiplicateurs de forces, elle appelle également de nouveaux modes de visualisation simplifiée d’une situation complexe intégrant terrain, forces, matériels, connectivité radio et empreinte capteurs, pour tirer le meilleur parti des opérations infovalorisées.

Ce n’est pas un problème trivial (mais la phrase précédente le laissait présager J). Il s’agit de passer d’une tenue de situation à une véritable compréhension de la situation, et ce sans surcharger la vision du chef, ni complexifier inutilement sa perception des opérations en cours. Autrement dit, ne pas faire « de la technologie pour la technologie ».

A cet égard, la démonstration capacitaire Battlespace Vista s’est révélée particulièrement illustrative, lors d’Eurosatory et d’Euronaval, en 2014. A l’occasion d’Eurosatory, THALES a présenté une démonstration fondée sur le scenario d’une mission d’appui rapproché numérisé au profit d’un SGTIA en Afghanistan. Il s’agissait d’une démonstration immersive, mêlant représentation innovante de l’espace de bataille, et manipulation en réalité immersive. Le résultat était impressionnant – même si l’on peut, à mon sens, améliorer la technologie d’immersivité utilisée. Mais cela n’était qu’une démonstration.

Battlespace Vista Eurosatory 2014

Ce qui m’a personnellement frappé, c’est la facilité pour un utilisateur de se placer au point de vue du chef en utilisant cette interface (lunettes 3D actives, joystick permettant de se positionner dans « l’espace informationnel »).

SAMSUNG CAMERA PICTURES

Au-delà, cette démonstration, positionnée en conduite des opérations au niveau d’un « Tactical Operations Center » et ses appuis interarmées interalliés, a permis d’illustrer trois constats.

  1. En premier lieu, l’intégration air-sol aux niveaux interarmées, interarmes et interalliés est aujourd’hui une réalité de l’appui-feu numérisé : gestion partagée de la 3D entre artillerie (chaînes ATLAS, MARTHA..) et hélicoptères, avions ou drones, avec par exemple la définition de zones de tir réservées, partage de situation tactique air-sol et le suivi de forces amies entre moyens air,terre et forces spéciales, ou encore la faculté d’attribuer des cibles sans crainte de tir fratricide en minimisant les risques de dégâts collatéraux.
  2. La capacité spatiale se déploie au niveau opératif et devient essentielle à la conduite des opérations sur l’espace de bataille numérisé: elle permet la navigation, le positionnement, et la datation (navigation et frappes de précision),grâce au système Galileo et ses récepteurs embarqués, la tenue de situation spatiale consolidée (avec information des forces), l’observation (spatiocartes et systèmes d’information embarqués, analyse de site et évaluation des frappes), grâce à des stations de géographie ou d’imagerie déployées, et évidemment, l’intégration des télécommunications (mobilité, connectivité, qualité de service), grâce notamment aux systèmes Syracuse 3 (bande X) et Athena-Fidus (bande Ka), avec leurs terminaux fixes ou mobiles (VENUS).
  3. La numérisation des véhicules de combat et leur intégration en réseau autour de systèmes de missions est une nouvelle capacité des GTIA numérisés : elle permet d’insérer l’action du GTIA dans ses appuis interarmes et interarmées, synchroniser la manœuvre et les effets, procéder à une allocation des rôles et des cibles avant et pendant l’engagement, capacité d’autoprotection : alerte immédiate et déclenchement automatisée de contre-mesures.

bv1

Une belle démonstration donc, et une expertise française incontestée dans ce domaine, qui devrait porter les couleurs de notre pays lors de l’exercice Bold Quest cette année (Bold Quest est un exercice interallié et interarmées d’expérimentation dans les missions d’identification, de coordination des feux, d’appui aérien et de cyber défense).

article-2621476-1D9D205400000578-542_634x356

…c’est l’expérience réalisée par l’armée norvégienne dans une expérimentation fondée sur l’utilisation du casque de réalité virtuelle Oculus Rift. L’idée est d’équiper le char de plusieurs caméras lenticulaires installées sur le pourtour. Via un serveur, ces caméras sont reliées à un casque Oculus Rift qui permet, en fonction de l’orientation de la tête de l’utilisateur, de composer une image synthétique de l’environnement du char en utilisant les caméras de la zone concernée. Un logiciel de réalité augmentée développé par la société Augmenti permet de réaliser la superposition avec les indications de guidage, celles relatives au système d’armes et aux cibles.

article-2621476-1D9D205000000578-50_634x286

Le blindage devient ainsi « transparent » et permet ainsi d’avoir une vision à 360 degrés autour du véhicule. Le film (sous titré en anglais) est visible ici

L’idée n’est pas nouvelle: au salon du Bourget 2013, Finmeccanica avait dévoilé un concept analogue pour voir au travers du plancher d’un hélicoptère de combat. Ce qui a changé, c’est le coût d’une telle solution, rendu abordable par le recours à des équipements de réalité virtuelle grand public.

article-2621476-1D9D205800000578-308_634x347

Dans tous les cas, le concept doit être soigneusement étudié, car le recours à une image synthétique fatigue considérablement l’oeil de l’utilisateur – des tests d’acceptance sont en cours. Une telle technologie pourrait être opérationnelle avant quatre ans.