Articles Tagués ‘SALA’

irobot0

iRobot, tout le monde connait – en particulier par son robot aspirateur Roomba autonome, l’un des meilleurs modèles du marché, et un précurseur dans son domaine. Mais iRobot, c’est moins connu, c’est également une société de robotique militaire. C’est cette dernière activité qui vient d’être cédée au groupe Arlington Capital Partners, pour 45 millions de $.

La division militaire d’iRobot développe des robots d’exploration comme le 110 FirstLook (voir ci-dessous), un robot de reconnaissance léger, robuste, capable d’effectuer des missions de reconnaissance NRBC, de vérification de véhicule ou d’exploration d’un environnement rendu complexe par la présence de fumées, ou de débris.

irobot1

A l’autre extrémité du spectre, on peut également citer le robot 710 Kobra, capable de grimper des escaliers et de réaliser des missions de déminage sur tout terrain, par tous les temps. Ces robots sont fondés sur un socle commun : deux chenilles, une plate-forme capable d’héberger différentes charges utiles, et un second couple de chenilles (amovibles) sur l’avant, permettant de monter des escaliers ou d’escalader des obstacles.

irobot2

La cession de sa division militaire a pour objectif de permettre à iRobot de se consacrer totalement au domaine de la robotique grand public. La nouvelle société issue de l’opération et détenue à 100% par des capitaux privés sera donc totalement dédiée au monde de la défense et de la sécurité. Son directeur général sera Sean Bielat, un ancien officier des US Marines.

Cette annonce a au moins le mérite de clarifier les intentions de la société dans le domaine de la robotique militaire. D’autres entités, comme Boston Dynamics, ont des stratégies moins claires : rachetée par Google en décembre 2013, cette dernière société, créatrice de robots célèbres comme « Alpha Dog » ou « Cheetah »  n’a toujours pas précisé sa stratégie dans le monde de la défense. Malgré les intentions de Google de « stopper tout développement de Boston Dynamics dans le militaire » (une posture dictée par une volonté d’affichage vers le grand public), les contrats de développement avec le DoD américain se poursuivent. Et l’on ne compte plus les sociétés de robotique achetées par Google (aujourd’hui Alphabet) : Meka, Redwood Robotics, Schaft, Industrial Perception, … sans compter ses développements dans les véhicules autonomes.

Mais le débat sur Google et la robotique est biaisé par les SALA (systèmes d’armes létaux autonomes), un concept qui pollue en fait la totalité du débat sur la robotique militaire. Il suffit de regarder les activités de iRobot, de Nexter Robotics ou de Tecdron pour constater que la robotique militaire, c’est aujourd’hui autre chose que des systèmes d’armes. Bon, même si iRobot avait déjà fait des essais d’armement de son robot 710 avec le concours de Metal Storm.

irobot4

Compte tenu de l’historique dans le domaine, nul doute que la DARPA constituera une source de financement importante pour la nouvelle société issue d’iRobot. Car les défis sont loin d’être résolus aujourd’hui : un robot a encore du mal à ouvrir une porte ou évoluer de manière complètement autonome dans un environnement non structuré, complexe et changeant.

Le nom de la nouvelle société sera révélé à l’issue de la transaction, dont la phase légale doit encore durer 90 jours.

sw2

Il ne s’agit pas de systèmes d’armes létaux autonomes, car sont supposés être contrôlés en permanence par un humain, mais quand même… Le programme Lethal Miniature Aerial Munition System ou LMAMS vise à développer des munitions intelligentes – un nom sibyllin pour désigner des drones armés portables.

La société américaine Aerovironment a ainsi développé et déployé le Switchblade, un mini-drone portable armé. Transportable dans un sac à dos car il ne pèse que 2,5 kg, le drone est tiré à partir d’un tube. Une fois éjecté, ses ailes se déploient, et il commence un vol qui peut durer jusqu’à 10 minutes, dans un rayon de 10km. Capable d’envoyer des images dans les spectres visible et infrarouge à l’opérateur qui le contrôle, il est aussi capable de fondre à 150 km/h sur sa proie… en activant une tête militaire capable de neutraliser un camion. Un drone kamikaze, en quelque sorte… Il peut également être programmé pour percuter une cible prédéfinie.

sw1

Cela est peu connu, mais 4000 de ces drones ont déjà été déployés en Afghanistan par la 3e division d’infanterie américaine. Et les fantassins sont plutôt conquis par le concept. Vous pouvez le voir en action sur ce film.

Evidemment, des questions se posent par exemple sur la vulnérabilité au piratage ou au brouillage de ces drones (la société Aerovironment ne souhaite pas communiquer à ce sujet). Et il vaut mieux ne pas imaginer de tels systèmes entre de mauvaises mains. D’autant que le Switchblade n’est pas le seul engin de ce type. Ainsi, la société Textron, avec le Battlehawk (ci-dessous), la société Israélienne uVIsion avec le Hero30 ou encore Lockheed Martin, avec le Terminator ( !) sont également en lice pour le programme LMAMS.

sw6

Pour ce dernier, les spécifications sont exigeantes : le système doit être piloté à partir d’une station opérable de jour comme de nuit, fournir de la vidéo et des moyens de contrôle en temps réel. L’opérateur doit pouvoir sélectionner les cibles visuellement, par géolocalisation, pouvoir armer ou désarmer le système. Ce dernier doit être capable d’interrompre sa mission et de revenir seul à son point de lancement. Le système doit pouvoir opérer de manière semi-autonome, manuelle, ou… autonome (un mot dangereux car extrêmement vague, dès lors que l’on parle de systèmes d’armes létaux : en l’occurrence, il est bien précisé que c’est l’opérateur qui commande la détonation de la charge militaire).

Ce sont donc tous des drones professionnels haut de gamme. Mais dans ce blog, je parlais récemment du drone DISCO de Parrot qui pourrait être équipé de capacités analogues (si l’on élimine le besoin d’une optronique performante). Et donc représenter une menace en cas de détournement… D’ailleurs, la photo suivante montre un drone Skywalker X9 civil, militarisé par Daech, et transformé en IED (heureusement abattu par les forces kurdes).

sw4

Une nouvelle menace à prendre en compte dans cette course à la technologie aujourd’hui ouverte à tous les participants.

dragon1

Lors du dernier salon AUSA (Association of the United States Army), la société Neany Inc a dévoilé un nouveau drone naval baptisé DragonSpy. Armé d’une arme automatique ARES 7.62, il repose sur une plateforme hybride diesel ou essence/électrique ; le prototype présenté lors d’AUSA était à propulsion uniquement électrique. L’arme repose sur un affut TRAP T360, développé par la société Precision Remote, une référence dans le domaine des armes automatiques autonomes et téléopérées (photo ci-dessous).

dragon 4

L’engin de 3m40 est doté de capteurs et de capacités ISR (intelligence, surveillance, reconnaissance) dont une caméra i2Tech i200L et peut s’intégrer dans un système de drones aériens, tel le drone ARROW développé par Neany Inc., pour augmenter ses capacités de reconnaissance. Il possède également un système de ciblage et d’interception de cibles automatique, ce qui ne manquera pas de déclencher l’ire des adversaires du recours aux SALA (systèmes d’armes létaux autonomes). Le système d’armes du DragonSpy a été testé avec succès en conditions opérationnelles, annonce la société.

L’engin est capable de fonctionner dans moins de 50 cm d’eau, et possède une vitesse de pointe de dix nœuds – le prototype dévoilé à AUSA est capable quant à lui de maintenir pendant 3h une vitesse de six nœuds en propulsion électrique. Reste encore à savoir comment se comporte la plate-forme dans des rapides ou des eaux agitées.

Ce n’est bien évidemment pas le premier (ni le dernier !) drone naval autonome ; a titre d’exemple, voici le système CARACaS (Control Architecture for Robotic Agent Command and Sensing) développé par l’ONR (Office of Naval Research) américain, et capable de contrôler un essaim de drones navals. La vidéo est assez impressionnante :

Dans le cas de DragonSpy, l’emploi est assez équivalent, mais la plate-forme, plus compacte, permet de patrouiller dans des eaux peu profondes. Une version future pourrait même incorporer une plate-forme pour un drone quadricoptère embarqué (on la voit d’ailleurs dans la photo ci-dessous prise lors d’AUSA et qui montre le nouvel aspect du DragonSpy).

dragon 3

La société envisage de généraliser le concept sur plusieurs types de plateformes navales. Le DragonSpy quant à lui serait utilisé pour des missions de patrouille et d’interdiction de zones (frontières, centrales nucléaires ou autres zones sensibles).

robot3

Il s’agit d’un débat récurrent, et qui enfle de plus en plus, sous-tendu à la fois par l’imaginaire collectif et une certaine tendance journalistique au sensationnel. Je veux parler du débat sur l’interdiction des « robots tueurs ». Après avoir alarmé l’opinion sur les dangers de l’intelligence artificielle (à mon sens, la bêtise naturelle est une plus grande menace, mais bon…), Stephen Hawking, Elon Musk ou encore Steve Wozniak et Noam Chomsky viennent en effet de signer une lettre ouverte pour l’interdiction des armes autonomes.

robot2

Il s’agit là d’un sujet complexe, et je ne pouvais pas ne pas réagir ou en tout cas tenter de donner mon opinion dans ce débat. Pardonnez moi par avance si j’enfonce quelques portes ouvertes.

En premier lieu, je pense qu’il convient de ne pas faire d’amalgames entre IA, robotique, et armes autonomes. La robotique de théâtre est une réalité, mais contrairement à ce que l’on pourrait penser, elle est aujourd’hui essentiellement orientée vers des fonctions de soutien ou d’appui. Au-delà, à quoi sert un robot sur le champ de bataille ? :

  • A protéger, pour éloigner l’homme de la menace ou de la zone exposée : fonctions de déminage, de reconnaissance…
  • A durer : l’attention d’un robot ne décroit pas au cours du temps : fonctions de surveillance…
  • A permettre accroître l’efficacité opérationnelle, par exemple en servant de « mule » pour porter les charges lourdes, en assurant une permanence de télécommunications, mais aussi, et c’est là le débat, en délivrant de l’armement.

robot6

Donc plus que de parler de robots tueurs (terme entretenant une certaine confusion anthropomorphique), on parle ici de SALA (systèmes d’armes létaux autonomes) ou, en anglais, LAWS ( !) pour Lethal Autonomous Weapons Systems.

Le problème consiste à définir ce que l’on entend par « système autonome ». Un missile de croisière, même si le ciblage est initié par l’homme, est aujourd’hui complètement autonome dans les phases terminales du vol (dans certains cas, une intervention humaine est même physiquement impossible). Cependant, ces systèmes sont explicitement en-dehors du débat suscité par les signataires de la lettre, même si ce sont des systèmes autonomes supervisés.

Donc de quoi parlons nous ? De systèmes létaux (en soi un terme restrictif :  est il plus humain d’être blessé gravement ?) autonomes, sans homme dans la boucle, et qui n’existent pas encore. Les seuls SALA aujourd’hui en service, notamment en Israël et en Corée du Sud, sont des sentinelles qui, si elles sont technologiquement capables de tirer sur des intrus, sont inféodées à la décision d’un humain dans la boucle (ci-dessous, le robot sentinelle SGR-A1 de Samsung).

robot1

Allons plus loin dans la restriction : on parle d’autonomie de décision, donc pas de systèmes préprogrammés pour effectuer des tâches. Ni de systèmes avec un humain dans la boucle pour le ciblage. Donc, aucun système actuel, ni même pressenti dans un futur proche.

De fait, les deux seuls pays à avoir aujourd’hui une politique officielle sur les SALA (les Etats Unis et le Royaume Uni) ont déjà explicitement déclaré qu’un SALA doit être conçu pour permettre à un commandant ou un opérateur d’évaluer humainement le niveau d’usage de la force. Donc d’exercer un contrôle.

Alors doit-on – sur l’idée que l’IA deviendrait capable de décisions autonomes telles qu’un humain pourrait les prendre, une affirmation plus que discutable compte tenu du niveau actuel de la technologie sous-jacente – interdire de manière préemptive un tel système ? Est-ce une application aveugle d’un principe de précaution mené à un tel degré qu’il devient un principe incapacitant? Comme le déclare microbiologiste Didier Raoult, « le principe de précaution privilégie la prévention de risques virtuels aux dépens de risques, eux, bien réels. Toute innovation technologique s’accompagne nécessairement d’incertitudes. Serions-nous allés sur la Lune si l’on avait appliqué le principe de précaution ? Finalement, ce que le principe de précaution refuse d’admettre, c’est que l’avenir est imprévisible »

Mon opinion est donc qu’il est dangereux d’empêcher ou de limiter la recherche sur l’Intelligence Artificielle sous le prétexte qu’un jour, un « Terminator » conçu par un humain pourrait décider de tuer d’autres humains. Produire des armes totalement autonomes n’est dans l’intérêt de personne et on pourrait disserter longuement comme le fait excellemment le diplomate et philosophe Jean-Baptiste Jeangène Vilmer sur l’humanité d’être tué par un humain ou un robot (la bombe nucléaire est elle plus « humaine » que le fait d’être tué par une sentinelle robotisée ?) ou sur le prétendu « accès facilité » à la guerre par l’utilisation d’armées de drones autonomes.

robot8

L’interdiction préventive des SALA n’a pas de sens et ne stopperait certainement pas des individus ou états qui souhaiteraient les utiliser dans un cadre non conforme aux droits de l’homme. A la différence des mines antipersonnel, un SALA complètement autonome et doté de « conscience » ou « d’intelligence » n’existe pas encore et n’a donc pas démontré son illégalité.  Et la recherche, dans ce domaine, est de toutes façons duale, donc accessible, in fine, aux utilisateurs motivés.

En revanche, encadrer comme l’ont fait les USA et le Royaume-Uni l’utilisation de tels systèmes afin qu’ils ne puissent, même si la technologie le permettait, fonctionner sans un « veto » humain (au minimum) me semble souhaitable. D’ailleurs, qui nous dit qu’un robot ne serait pas en mesure de mieux respecter les règles d’engagement que les hommes eux-mêmes (relire les lois d’Asimov) ?

Et, in fine, une question n’a pas été posée, et elle me semble plus prégnante : comment maîtriser le contrôle de ces systèmes autonomes armés avec une informatique qui progresse mais qui devient difficile à maîtriser, contrôler, débugger de façon sûre ? Cela, en soi, plaide pour le maintien de l’homme dans la boucle.

robot5

Ce n’est bien évidemment que mon opinion, mais je souhaitais la partager, au moment où l’on lit tout, et surtout n’importe quoi sur le sujet, et que des amalgames dangereux et populistes font leur apparition. La robotisation de l’espace de bataille est une réalité. L’émergence de la conscience humaine dans une machine est aujourd’hui de l’ordre de la science-fiction. Le débat éthique sur l’armement autonome doit guider son développement.

On pourrait aussi demander aujourd’hui l’interdiction préventive de l’Etoile Noire, capable de détruire une planète. Elle non plus n’existe pas encore.

robot7