Articles Tagués ‘IA’

20161123_115905_resized

Vous êtes quelques-uns à reprocher (gentiment) à ce blog une certaine orientation vers la recherche américaine. Ce n’est pas une volonté, mais une conséquence (1) des conséquents budgets américains en termes de R&D de défense et (2) d’une maîtrise certaine de la communication par nos voisins outre-Atlantique (les amenant d’ailleurs parfois à communiquer avec un certain talent des programmes politiques n’ayant pas grand-chose à voir avec la réalité, je dis ça comme ça….).

Une fois par an, la DGA organise son Forum Innovation. C’était hier et aujourd’hui, sur le site de Palaiseau, et pour le coup, cela amène une réelle volonté active de communication de la part à la fois de institutionnels, mais aussi des laboratoires et des petites entreprises. J’ai donc fait mon marché de l’innovation, en voici un premier résultat.

20161123_115841_resized

Le projet s’appelle AXONE. Il s’agit d’un système neuronal artificiel capable de réaliser des tâches d’analyse de scène en temps réel. Il s’agit du résultat d’un projet RAPID (Régime d’Appui pour l’Innovation Duale – voir la page de référence ici ) associant l’Institut Saint-Louis, la société Spikenet Technologies et la société GlobalSensing Technologies.

L’idée est d’utiliser un certain type de réseaux de neurones artificiels, les neurones à Spike, pour procéder à l’analyse en temps réel d’une scène visuelle, et de les embarquer sur des composants dédiés (SoC ou Systems on Chips). Je vais essayer d’expliquer simplement le concept – et ce, d’autant plus que j’avais travaillé il y a plus de vingt ans avec le Pr Simon Thorpe, créateur de la technologie SpikeNet (il me semble que j’ai même commis un article sur le sujet…).

20161123_115838_resized

Pour faire simple : en neurobiologie, on se pose depuis longtemps la question de la nature du codage de l’information par les neurones. La théorie générale est fondée sur un codage fréquentiel de l’information (fréquence des décharges électriques). Mais il existe une autre théorie reposant sur un codage temporel de l’information : le codage serait fait par des impulsions (spikes) ou plus précisément par les instants d’émission des impulsions. On prend donc en compte l’aspect temporel. Un réseau artificiel de neurones à spike est conçu pour simuler des réseaux qui contiennent un nombre très grand de neurones à décharge asynchrone et qui apprennent par codage des séquences de décharge. On appelle cela le codage par rangs (évidemment, je simplifie). Cette technologie est très utilisée pour la reconnaissance de formes, et en particulier le traitement d’images.

L’intérêt de cette technologie est que le temps d’apprentissage est très rapide, et très tolérant (aux conditions d’illumination, au bruit, aux contrastes…). Dans le projet AXONE, les participants ont ainsi pu implanter un réseau de neurones à spike sur une carte dédiée (ce que l’on appelle un processeur FPGA). En gros, il s’agit d’un processeur reconfigurable, comportant 1024 neurones artificiels, et conçue par la société GlobalSensing Technologies. Avec SpikeNet et l’ISL, et en 24 mois, les acteurs du projet AXONE ont réalisé une caméra reconfigurable générant des Spikes en lieu et place des images. Le travail a ainsi consisté (outre évidemment l’algorithmique sous-jacente) à intégrer ce réseau de neurones artificiel avec un capteur, au sein d’une caméra autonome, et de développer la librairie logicielle pour la mise en œuvre de ces composants.

20161123_115903_resized

Et le résultat est impressionnant. Lors de la présentation au Forum DGA, on a pu ainsi visualiser la reconnaissance de visages en temps réel (chaque visage est reconnu, en temps réel, avec sa signature unique). Les applications sont nombreuses : sécurité et surveillance de sites sensibles avec levée de doute par la caméra elle-même, capteurs abandonnés capables de réaliser une analyse in situ (voir mon article sur l’IA embarquée), et évidemment, augmentation de la capacité de reconnaissance de forme en robotique et en particulier pour les drones.

20161123_115855_resized

J’ajoute que la DGA a pris une initiative originale : celle de faire parrainer certaines innovations par des personnalités de l’institution. En l’occurrence, AXONE est parrainée par l’excellent Lionel MORIN, directeur du CATOD (Centre d’Analyse Technico-Opérationnelle de Défense) – ci-dessous.

20161123_123107_hdr_resized

Une technologie à suivre, et une excellente illustration des capacités d’innovation de l’écosystème français de la Défense – je publierai d’ailleurs bientôt d’autres articles suite à ma visite sur le forum Innovation.

ge2

Nul doute, alors que la bataille de Mossoul débute, que la guerre électronique (GE) prend une grande part dans la préparation et l’implémentation des opérations militaires modernes. Outre la défense de ses propres moyens électromagnétiques, l’écoute et le renseignement, il s’agit d’empêcher l’utilisation du spectre électromagnétique de l’adversaire, par le leurrage, le brouillage, ou l’intrusion dans ses systèmes.

Mais ne croyons pas que cette capacité est l’apanage unique des grandes puissances. Tous les combattants aujourd’hui sur le théâtre s’affrontent sur le terrain des ondes, à l’aide de brouilleurs, intercepteurs, ou en leurrant les réseaux de communication. La compréhension fine des émissions électromagnétiques sur le champ de bataille est donc aujourd’hui incontournable pour conférer un avantage tactique aux combattants impliqués. Cela permet d’interférer avec un guidage de missile adverse, de garantir la fiabilité des données de géolocalisation (qui pourraient être volontaire modifiées par l’adversaire, etc…), et évidemment, d’interférer avec les systèmes ennemis, par exemple en rompant leur chaîne de commandement.

ge4

Dans ce contexte, la société BAE, à la demande de la DARPA américaine, a développé un terminal ultraportable de GE. L’idée est d’avoir un dispositif tactique portable capable de conférer à son porteur la capacité de comprendre les différents signaux de radiofréquences dans lesquels il est immergé.

Il ne s’agit pas uniquement d’électronique (même si la taille et le poids sont en l’occurrence critiques), car pour pouvoir comprendre le « champ de bataille des fréquences », il est nécessaire de disposer d’algorithmes mettant en œuvre des techniques d’analyse du signal et d’Intelligence Artificielle. Cette analyse doit être réalisée au niveau tactique, sur le terrain (au lieu de devoir communiquer les signaux et de procéder à leur analyse au niveau du poste de commandement). Cette analyse, BAE la réalise en utilisant ce que l’on appelle des algorithmes Bayésiens d’apprentissage machine. Vous trouverez sur Internet nombre d’articles expliquant cette technologie, et je me bornerai donc à dire ici qu’un algorithme Bayésien est un graphe orienté probabiliste, capable de tenir compte simultanément de connaissances a priori et de l’information contenue dans les données, et d’améliorer son analyse au fur et à mesure que de nouvelles bases de données lui sont présentées.

ge0

Evidemment, BAE ne fournit pas beaucoup d’information sur la manière dont son algorithme fonctionne (ce qui reviendrait à donner des recettes pour le contrer), mais on peut imaginer qu’il se nourrit des informations capturées lors des missions passées. Cette même approche a d’ailleurs été implémentée par la même société, en ce qui concerne les systèmes de GE de l’avion de chasse F-35.

ge3

Les systèmes portables de BAE seraient ainsi fournis avec une configuration initiale qui exploiterait au maximum les interceptions et formes d’ondes déjà connues, et pourraient évoluer en fonction des situations rencontrées sur chaque théâtre d’opérations (voire partager cette connaissance commune entre deux théâtres). En présence d’un signal analogue à un signal déjà vu, il pourrait adapter sa réponse (par exemple en augmentant la puissance d’émission radio si le signal adverse semble correspondre à une tentative d’affaiblissement du signal, ou en utilisant une autre portion du spectre si l’IA prédit qu’il s’agit d’une tentative de brouillage).

Et cela semble fonctionner puisque BAE annonce, lors des premiers tests, avoir pu identifier plus de 10 signaux différents, sur une grande largeur de spectre, et en présence de dispositifs de brouillage et d’interférence. On peut même imaginer dans un futur proche que cette IA soit considérablement dopée par son embarquabilité sur des processeurs spécialisés (je pense par exemple aux travaux de la jeune société française SCORTEX, aujourd’hui dans le domaine de la vision mais potentiellement dans d’autres domaines demain – si cela peut donner des idées à nos groupes industriels nationaux)

ge6

L’idée est ainsi d’analyser la « soupe » de signaux électromagnétiques, d’en identifier les caractéristiques, d’en cibler les plus pertinents, et d’indiquer au combattant comment utiliser ses propres technologies de GE pour pouvoir les contrer ou échapper aux détections adverses.

Ce projet est intéressant car il montre la réalité de ce que les américains (et en particulier le précédent ministre américain de la Défense, Chuck Hagel et portée par le ministre adjoint de la défense, Bob Works – ci-dessous) appellent la « third offset strategy».

ge1

La première stratégie sous l’administration Eisenhower visait à compenser la supériorité soviétique par la dissuasion nucléaire. La seconde, à la fin des années 1970, visait cette fois, à compenser la supériorité conventionnelle quantitative par l’investissement dans les technologies de l’information et le développement de doctrines et d’un complexe « reconnaissance-frappe » de précision (missiles guidés, etc.). La stratégie de 3e offset vise à assurer leur domination pure tant militaire que stratégique, et l’Intelligence Artificielle en est une composante essentielle. En multipliant le contrôle et le développement de normes sur l’IA, les Etats-Unis imposent leurs outils et leurs technologies permettant à l’IA de contribuer préférentiellement à la souveraineté américaine.

ge5

La multiplication des initiatives mettant l’IA au cœur de systèmes militaire n’est donc pas conjoncturelle mais bien préméditée. En combinaison avec la GE, il s’agit donc bel et bien de démontrer une supériorité qui va bien au-delà de l’échelon tactique. Car comme le disait le Général Siffre dans le livre « Maître des ondes, maître du monde » : « le spectre électromagnétique est le lieu de passage et d’échange des messages chargés de secrets du pouvoir politique, économique, financier, terroriste et mafieux. Qui sera maître de ces secrets cachés sur le spectre électromagnétique sera maître du monde ».

Note: ce blog évolue – vous ne devriez plus y voir de publicités, et vous pouvez aujourd’hui y accéder par un nom de domaine plus simple: VMF214.net

dw4

Nous avons déjà parlé à plusieurs reprises dans ce blog de l’ordinateur quantique : je vous renvoie par exemple à cet article.

Pour mémoire, on rappelle qu’un tel superordinateur, imaginé par le physicien et Nobel Richard Feynman, repose sur le principe de l’utilisation des propriétés quantiques de la matière. Un ordinateur quantique manipule des qbits (ou qubits ou quantum bits) – voir l’article évoqué ci-dessus – et sa puissance est une fonction exponentielle du nombre de qbits manipulés. En traduction : plus un processeur quantique peut manipuler de qbits, plus il se rapproche du superordinateur rêvé par tous les informaticiens et capable de résoudre des problèmes jusque-là inattaquables.

dw1

Un calcul d’optimisation qui prendrait l’équivalent de l’âge de l’univers par un ordinateur classique serait résolu en moins de 10 minutes par un ordinateur quantique à 3000qbits. Inutile de souligner à nouveau la rupture stratégique et de souveraineté qu’amènerait un tel outil à la nation qui le posséderait.

qc3

Il y a quelques temps, la société canadienne D-Wave Systems, située à Burnaby, près de Vancouver, a annoncé avoir développé un ordinateur quantique (à 15 millions de dollars tout de même), acheté par Google ou la NSA entre autres (bien entendu je ne fais aucun rapprochement…), et capable de manipuler 512 qbits. Google a ainsi annoncé avoir constaté qu’un algorithme d’optimisation (dit « de recuit simulé ») était plus de 100 millions de fois plus rapide sur la machine de D-Wave que sur un ordinateur classique. Un exploit toutefois considéré avec méfiance par de nombreux spécialistes, dans la mesure où D-Wave a toujours refusé de divulguer les détails de ses tests, ni de procéder à des tests indépendants.

La société revient aujourd’hui sur le devant de la scène, avec un nouveau processeur quantique capable de manipuler 2000 qbits, et 1000 fois plus puissant que son prédécesseur, le D-Wave 2X.

dw2

Ce processeur utilise des micro-composants de niobium refroidis à l’helium liquide à une température proche du zéro absolu (en l’occurrence -273°C). Avec une telle machine, D-Wave annonce vouloir révolutionner la recherche opérationnelle et – c’est à la mode – l’apprentissage machine et l’intelligence artificielle.

Une telle machine, toutefois, ne pourra résoudre que les problèmes pour lesquels elle est optimisée ; les experts n’envisagent en effet le développement d’un véritable supercalculateur quantique qu’à partir de 2030. En l’occurrence, le nouveau processeur de D-Wave ne sait résoudre que des problèmes d’optimisation dits QUBO (Quadratic unconstrained binary optimization) – parmi lesquels, il est vrai, on trouve des problèmes de « pattern matching », d’optimisation ou certains algorithmes d’apprentissage.

Et c’est là que cela devient intéressant, car le développement de processeurs spécifiquement optimisés pour l’intelligence artificielle et en particulier le « deep learning » (le renouveau des réseaux de neurones) figure sur la feuille de route de nombre de fabricants de processeurs. Ainsi, NVIDIA a développé la carte DGX1, dédiée à l’apprentissage machine (et ne coûtant qu’environ 100k€).

dw3

Avec le développement du nouveau processeur de D-Wave, on commence à entrevoir une génération de machines quantiques spécifiquement optimisées, et qui permettraient de doper considérablement l’apprentissage non supervisé. Je ne rentre pas dans les détails, mais les grands défis de l’intelligence artificielle sont de ce type : détection d’anomalies dans des réseaux, identification de « patterns » dans les profils et comportements pour la lutte anti-terroriste, analyse automatique d’images complexes, etc…

dw5

Cela explique sans doute pourquoi D-Wave a été financée par plusieurs sociétés, dont Bezos Investment (fondée par la société du créateur d’Amazon, Jeff Bezos) et surtout, In-Q-Tel, la société d’investissement…de la CIA.

alphap4

Décidément, l’intelligence artificielle est à la mode. Aujourd’hui, l’actualité est celle d’un projet commun entre l’université de Cincinnati et la société américaine Psibernetix. Et pas de Google ni de Facebook. Je reviendrai d’ailleurs dans un futur article sur les réelles promesses et les limites de ce concept marketing que l’on appelle « deep learning » et qui remet au goût du jour une technique de réseaux de neurones datant… des années 50. Mais ce sera pour plus tard, puisqu’ici, il ne s’agit pas de réseaux de neurones ni de deep learning mais d’une technique plus récente (mais des années 1960 quand même…).

De quoi s’agit-il ? D’un article publié dans le « Journal of Defense Management », présentant le système ALPHA, développé par la société Psibernetix à partir des travaux d’un chercheur nommé Nicholas Ernest, et qui a réussi à battre un pilote (retraité) de l’US Air Force, le Colonel Gene Lee, dans plusieurs combats simulés.

alpha2

On en parle pas de « dogfighting » (combat tournoyant) mais de tactiques, techniques et procédures aériennes nourries par les informations obtenues par les différents capteurs de chaque aéronef, et qui sont adaptées en temps réel par ALPHA. La technique d’intelligence artificielle sous-jacente repose sur une combinaison de logique floue et d’algorithmes génétiques. Pour faire simple : la logique floue est une technique de modélisation du raisonnement, dans laquelle les règles logiques ne sont pas « vraies » ou « fausses » mais peuvent prendre toute valeur entre « complètement vraies » et « complètement fausses » (je simplifie, bien entendu). Les algorithmes génétiques, quant à eux, cherchent à trouver la solution d’un problème en le modélisant sous forme d’une « population de solutions », dont les plus adaptées se recombinent entre elles sur le modèle de l’évolution, afin de cribler en parallèle tout l’espace de recherche, puis de converger vers une solution adaptée, génération après génération (là encore, je simplifie à outrance).

ALPHA repose donc sur une combinaison de ces deux techniques, mais surtout, sur la possibilité de décomposer des problèmes complexes en problèmes plus simples, capables de fonctionner sur de petits processeurs comme ceux des ordinateurs de bureau, ou de processeurs de type « raspberry pi ». Avec une capacité d’adaptation à la microseconde.

alpha1

ALPHA a été testé dans un exercice de tactique aérienne opposant des « agresseurs » rouges, ne disposant pas de couverture AWACS et dotés de missiles à courte portée, à des avions « bleus » dotés de missiles à plus longue portée, et d’une protection AWACS. ALPHA a commencé par s’entraîner contre lui-même, avant de se confronter à un programme d’IA développé par le US Air Force Research Lab. Il s’est ensuite opposé au Colonel Lee, un expert du domaine, ancien « USAF Air Battle manager », instructeur au sein de l’école de combat aérien, et lui-même pilote de chasse chevronné.

alphap3

Le résultat : dès que le Colonel Lee a pris manuellement le contrôle d’un avion bleu, il s’est fait battre à plate couture par ALPHA, capable d’exploiter de manière remarquable les données remontées par les capteurs de chaque appareil, et les erreurs de pilotage du colonel. D’après ce dernier, ALPHA est « l’IA la plus agressive, dynamique, adaptative et crédible jamais développée ».

Selon ses concepteurs, ALPHA pourrait être utilisée dans un mode de combat human/machine team, c’est-à-dire pour contrôler une escadrille de drones escortant des avions pilotés. Sa capacité de contrôle et d’adaptation à la microseconde en font en tout cas un candidat très crédible pour une telle tâche.

mov1

Ce n’est pas la première fois que nous parlons ici des caméras thermiques intelligentes. Mais ici, il s’agit d’une réelle convergence entre deux technologies : la vision thermique, et l’interprétation automatique d’images par vision artificielle. Cette convergence est matérialisée par l’alliance entre deux références du domaine : la société FLIR bien connue pour ses technologies de vision thermique par infrarouge, et la société MOVIDIUS, spécialiste de la vision artificielle embarquée.

Movidius est une société californienne qui développe des solutions dites de VPU pour Vision Processor Unit ; son architecture baptisée Myriad 2 est en fait un processeur spécialisé dans la vision artificielle embarquée. Il se compose d’un processeur DSP de traitement du signal permettant d’exécuter 150 milliards d’opérations par seconde, en ne consommant que 1,2 watts.

mov2

Ces deux sociétés viennent d’annoncer le fruit de leur collaboration : la caméra BOSON, une caméra thermique embarquant le Myriad 2 (possédant 12 cœurs de calcul programmables) et permettant d’implémenter in situ des algorithmes de traitement avancé de l’image, filtrage du bruit, et analyse d’objets. La caméra BOSON intègre les algorithmes de base, et l’utilisateur dispose de puissance de calcul et de mémoire disponibles pour implémenter ses propres traitements.

Le résultat ? Une caméra thermique miniaturisée, de faible consommation, et embarquant une intelligence artificielle permettant le traitement automatisé et en temps réel des images. Il devient ainsi possible de réaliser de la détection et du suivi d’images, de la détection de geste ou de mouvement, ou d’extraire des caractéristiques de haut niveau permettant d’implémenter une identification automatique de cible d’intérêt et un traitement de l’image correspondante.

Cela permet de réaliser l’essentiel des opérations au sein du capteur lui-même : toutes les opérations sont effectuées localement, sans devoir surcharger la bande passante du réseau, ni devoir transmettre des informations en vue d’en faire l’analyse sur un serveur distant. Une économie de temps, un gain de sécurité et d’efficacité : on peut ainsi imaginer qu’un drone aérien soit capable de réaliser l’interprétation automatique et immédiate des images qu’il capte, sans devoir faire appel à une liaison vers un segment sol.

Une caméra d’ailleurs facilement embarquée par un drone : la caméra BOSON est miniaturisée (21x21x11mm sans l’objectif), ne pèse que 7.5g pour l’unité de traitement, est possède une vision dans le spectre 7.5 µm – 13.5 µm. En revanche, elle est classée ITAR et nécessite donc à ce titre une autorisation d’export par les autorités américaines.

mov3

Il s’agit là d’une véritable révolution amenée, je le pense, à se généraliser : l’intégration de capacités de haut niveau (ici la vision artificielle) dans le senseur lui-même, permettant ainsi de conserver localement des capacités de traitement élaborées sans devoir transmettre l’information à un serveur distant.

Les applications vont de l’analyse d’images de surveillance, à la navigation, ou  la vision artificielle pour drones et robots,… Les grands du domaines ne s’y trompent pas : la société MOVIDIUS a été récemment sélectionnée par …Google, afin d’intégrer des capacités d’apprentissage dans les objets connectés. L’avènement des capteurs intelligents…

robot3

Il s’agit d’un débat récurrent, et qui enfle de plus en plus, sous-tendu à la fois par l’imaginaire collectif et une certaine tendance journalistique au sensationnel. Je veux parler du débat sur l’interdiction des « robots tueurs ». Après avoir alarmé l’opinion sur les dangers de l’intelligence artificielle (à mon sens, la bêtise naturelle est une plus grande menace, mais bon…), Stephen Hawking, Elon Musk ou encore Steve Wozniak et Noam Chomsky viennent en effet de signer une lettre ouverte pour l’interdiction des armes autonomes.

robot2

Il s’agit là d’un sujet complexe, et je ne pouvais pas ne pas réagir ou en tout cas tenter de donner mon opinion dans ce débat. Pardonnez moi par avance si j’enfonce quelques portes ouvertes.

En premier lieu, je pense qu’il convient de ne pas faire d’amalgames entre IA, robotique, et armes autonomes. La robotique de théâtre est une réalité, mais contrairement à ce que l’on pourrait penser, elle est aujourd’hui essentiellement orientée vers des fonctions de soutien ou d’appui. Au-delà, à quoi sert un robot sur le champ de bataille ? :

  • A protéger, pour éloigner l’homme de la menace ou de la zone exposée : fonctions de déminage, de reconnaissance…
  • A durer : l’attention d’un robot ne décroit pas au cours du temps : fonctions de surveillance…
  • A permettre accroître l’efficacité opérationnelle, par exemple en servant de « mule » pour porter les charges lourdes, en assurant une permanence de télécommunications, mais aussi, et c’est là le débat, en délivrant de l’armement.

robot6

Donc plus que de parler de robots tueurs (terme entretenant une certaine confusion anthropomorphique), on parle ici de SALA (systèmes d’armes létaux autonomes) ou, en anglais, LAWS ( !) pour Lethal Autonomous Weapons Systems.

Le problème consiste à définir ce que l’on entend par « système autonome ». Un missile de croisière, même si le ciblage est initié par l’homme, est aujourd’hui complètement autonome dans les phases terminales du vol (dans certains cas, une intervention humaine est même physiquement impossible). Cependant, ces systèmes sont explicitement en-dehors du débat suscité par les signataires de la lettre, même si ce sont des systèmes autonomes supervisés.

Donc de quoi parlons nous ? De systèmes létaux (en soi un terme restrictif :  est il plus humain d’être blessé gravement ?) autonomes, sans homme dans la boucle, et qui n’existent pas encore. Les seuls SALA aujourd’hui en service, notamment en Israël et en Corée du Sud, sont des sentinelles qui, si elles sont technologiquement capables de tirer sur des intrus, sont inféodées à la décision d’un humain dans la boucle (ci-dessous, le robot sentinelle SGR-A1 de Samsung).

robot1

Allons plus loin dans la restriction : on parle d’autonomie de décision, donc pas de systèmes préprogrammés pour effectuer des tâches. Ni de systèmes avec un humain dans la boucle pour le ciblage. Donc, aucun système actuel, ni même pressenti dans un futur proche.

De fait, les deux seuls pays à avoir aujourd’hui une politique officielle sur les SALA (les Etats Unis et le Royaume Uni) ont déjà explicitement déclaré qu’un SALA doit être conçu pour permettre à un commandant ou un opérateur d’évaluer humainement le niveau d’usage de la force. Donc d’exercer un contrôle.

Alors doit-on – sur l’idée que l’IA deviendrait capable de décisions autonomes telles qu’un humain pourrait les prendre, une affirmation plus que discutable compte tenu du niveau actuel de la technologie sous-jacente – interdire de manière préemptive un tel système ? Est-ce une application aveugle d’un principe de précaution mené à un tel degré qu’il devient un principe incapacitant? Comme le déclare microbiologiste Didier Raoult, « le principe de précaution privilégie la prévention de risques virtuels aux dépens de risques, eux, bien réels. Toute innovation technologique s’accompagne nécessairement d’incertitudes. Serions-nous allés sur la Lune si l’on avait appliqué le principe de précaution ? Finalement, ce que le principe de précaution refuse d’admettre, c’est que l’avenir est imprévisible »

Mon opinion est donc qu’il est dangereux d’empêcher ou de limiter la recherche sur l’Intelligence Artificielle sous le prétexte qu’un jour, un « Terminator » conçu par un humain pourrait décider de tuer d’autres humains. Produire des armes totalement autonomes n’est dans l’intérêt de personne et on pourrait disserter longuement comme le fait excellemment le diplomate et philosophe Jean-Baptiste Jeangène Vilmer sur l’humanité d’être tué par un humain ou un robot (la bombe nucléaire est elle plus « humaine » que le fait d’être tué par une sentinelle robotisée ?) ou sur le prétendu « accès facilité » à la guerre par l’utilisation d’armées de drones autonomes.

robot8

L’interdiction préventive des SALA n’a pas de sens et ne stopperait certainement pas des individus ou états qui souhaiteraient les utiliser dans un cadre non conforme aux droits de l’homme. A la différence des mines antipersonnel, un SALA complètement autonome et doté de « conscience » ou « d’intelligence » n’existe pas encore et n’a donc pas démontré son illégalité.  Et la recherche, dans ce domaine, est de toutes façons duale, donc accessible, in fine, aux utilisateurs motivés.

En revanche, encadrer comme l’ont fait les USA et le Royaume-Uni l’utilisation de tels systèmes afin qu’ils ne puissent, même si la technologie le permettait, fonctionner sans un « veto » humain (au minimum) me semble souhaitable. D’ailleurs, qui nous dit qu’un robot ne serait pas en mesure de mieux respecter les règles d’engagement que les hommes eux-mêmes (relire les lois d’Asimov) ?

Et, in fine, une question n’a pas été posée, et elle me semble plus prégnante : comment maîtriser le contrôle de ces systèmes autonomes armés avec une informatique qui progresse mais qui devient difficile à maîtriser, contrôler, débugger de façon sûre ? Cela, en soi, plaide pour le maintien de l’homme dans la boucle.

robot5

Ce n’est bien évidemment que mon opinion, mais je souhaitais la partager, au moment où l’on lit tout, et surtout n’importe quoi sur le sujet, et que des amalgames dangereux et populistes font leur apparition. La robotisation de l’espace de bataille est une réalité. L’émergence de la conscience humaine dans une machine est aujourd’hui de l’ordre de la science-fiction. Le débat éthique sur l’armement autonome doit guider son développement.

On pourrait aussi demander aujourd’hui l’interdiction préventive de l’Etoile Noire, capable de détruire une planète. Elle non plus n’existe pas encore.

robot7