Articles Tagués ‘google’

maven1

Après mon dernier poisson d’avril (oui, c’en était un et il a mieux fonctionné que je ne le pensais), je reprends le fil des « véritables » nouvelles (je rappelle que le premier avril est le seul jour où les internautes sont supposés vérifier une information avant de la croire – sic).

En l’occurrence, une nouvelle qui commence à faire du bruit, et qui a déclenché l’ire des employés de Google ; le géant du net, désormais l’un des pionniers du « deep learning », fournit sa technologie au Pentagone, notamment pour réaliser l’analyse d’images prises par des drones ou des satellites.

Cela fait un certain temps qu’on le rappelle : l’intelligence artificielle est aujourd’hui tirée par le marché civil, et en particulier le grand public. Les investissements se poursuivent et même s’amplifient dans des sociétés proposant des technologies d’apprentissage machine ou d’intelligence artificielle. Dernière en date, la « licorne » chinoise SenseTime qui vient d’annoncer avoir procédé à une levée de fonds de 600 M$, pour une valorisation de la société à 4.5 milliards (oui, milliards) de dollars… Nul doute d’ailleurs que le vaste programme d’espionnage des citoyens chinois – digne du meilleur épisode à mon sens de la série Black Mirror (« the fall ») –  a contribué à valoriser les programmes de reconnaissance faciale et d’analyse d’images.

maven9

L’avance de sociétés comme Facebook, Apple ou Google dans le domaine de l’IA n’est plus à prouver. C’est donc naturellement que le Pentagone s’est tourné vers Google quand il a réalisé qu’il ne pourrait traiter manuellement le torrent d’informations (images et vidéos) déversé par les drones militaires.

Le programme s’appelle donc Maven, et est réalisé depuis 2017 par une équipe mixte (Google et le DoD américain) baptisée AWCFT pour Algorithmic Warfare Cross-Functional Team. En 2017, Greg Allen et Taniel Chan avaient publié ce rapport dont je vous conseille la lecture – le même Greg Allen a récemment déclaré que si le ministère de la défense américain a bien financé de manière importante le développement de nouveaux capteurs image pour les drones aériens, il a en revanche un peu négligé les outils d’analyse nécessaires afin de donner du sens aux données recueillies.

Pour mieux en juger, voici quelques chiffres : l’armée américaine s’est équipée de 11 000 drones aériens (!). Chacun de ces drones génère un déluge de données images (au total, l’équivalent de 37 années de vidéo)…et 99% de ces données ne sont analysées par personne. En France, le général Ferlet, commandant la Direction du Renseignement Militaire, a également évoqué le sujet sur Europe 1 en décembre dernier: « Il y a une explosion exponentielle des données à traiter. Mais je ne suis pas naïf, je n’aurais pas une augmentation exponentielle des moyens humains pour traiter ces données. Il faudra donc trouver d’autres moyens, basés sur l’intelligence artificielle. Ce sera ma priorité numéro une dans les années à venir ».

maven5

Retour donc au projet Maven. Son premier objectif : utiliser l’IA et l’apprentissage machine pour détecter et identifier des objets (véhicules…) dans les vidéos transmises par les drones. En tout, dans cette première phase du projet, 38 catégories d’objets ciblés ont été définies. Pour ce faire, du logiciel bien sûr, mais pas seulement. A priori, Google fournirait des API Tensorflow aux équipes du ministère.

maven6

Rappelons que Tensorflow, développé par Google, est un outil open source de référence dans le domaine de l’apprentissage machine – éventuellement, la société pourrait fournir également du hardware, en l’espèce, des circuits Tensor (circuit intégré développé par Alphabet/Google spécifiquement pour l’IA).

maven7

L’idée est d’accélérer au maximum le projet Maven, un projet déjà tendu puisque six mois après son lancement, l’été dernier, le projet était supposé déjà opérationnel (en particulier dans la lutte contre le terrorisme en Irak et en Syrie).

Bon, le projet Maven ne plait pas à tous ; des milliers d’employés de Google ont ainsi signé une pétition demandant à l’entreprise de mettre fin à sa collaboration avec le Pentagone. A cela, certains rétorquent que justement, l’objectif de Maven était d’éviter des frappes mal ciblées, et des dégâts collatéraux en optimisant l’efficacité des drones. Gonflé.

maven3

Mais les risques de dérive sont réels. S’il s’agit de classer des images pour présenter ensuite à des analystes humains les plus susceptibles de fournir des informations tactiques, alors il faut être certain (1) que le système ne peut pas être piraté (car on peut « orienter » l’apprentissage) et d’ailleurs (2) qu’il n’y a pas de biais natifs dans la base d’apprentissage.

Revenons sur le « hacking » des systèmes d’IA ; c’est par exemple ce que l’on appelle aujourd’hui des « BadNets » : des réseaux de neurones dont la base d’apprentissage a été volontairement altérée pour introduire des signaux destinés à permettre à un hacker de modifier la réponse du système dans certaines conditions. Ainsi, à titre d’illustration, en utilisant des micro-modifications de pixels, un hacker peut permettre à un système de détection faciale de laisser passer les images de terroristes sans lever d’alarme. Je vous conseille par exemple la lecture de cet article qui démontre comment on peut arriver à faire en sorte qu’un réseau de neurones dont l’apprentissage a été altéré puisse dans certaines conditions prendre un panneau Stop pour un panneau de limitation de vitesse (je vous laisse imaginer les conséquences pour un véhicule autonome).

maven2

Au-delà, cette méthode (utiliser un partenariat avec l’industrie privée pour accélérer le tempo de développement d’une application de défense) illustre bien la philosophie prédominante aujourd’hui : en l’occurrence, c’est la structure DIUX (Defense Information Unit Experimental) située au cœur de la Silicon Valley qui est chargée d’identifier et d’organiser les transferts possibles.

cool

Une approche qui pourrait fonctionner en France (c’est en tout cas dans la lignée des annonces réalisées autour de l’innovation de défense par la Ministre des armées) – à condition toutefois de mettre en place des dispositifs permettant à l’Etat d’acheter très rapidement des solutions commerciales, pour expérimentation immédiate. Une approche novatrice qui, je le pense, est indispensable pour aller au-delà des intentions, et capturer l’innovation de manière optimale. Faute de quoi, il sera difficile d’établir de véritables passerelles entre ces deux mondes qui aujourd’hui, au-delà des réticences « philosophiques » qu’il ne m’appartient pas de commenter, se côtoient sans véritablement s’intégrer.

nvg4

« Regarder au travers de tubes de papier-toilette en carton » : c’est comme cela que certains désignent l’inconfort d’utiliser des lunettes de vision nocturne (dont l’acronyme le plus répandu est NVG pour Night Vision Goggles). Malgré les récents progrès apportés notamment par les lunettes quadri-tubes panoramiques rendues célèbres par le raid contre Ben Laden, les NVG classiques sont souvent trop imposantes, trop lourdes et insuffisamment performantes.

nvg3

Cet encombrement est dû à la technologie elle-même. En effet, pour développer un dispositif de vision nocturne, il est nécessaire d’amplifier le peu de lumière disponible, et de le rendre visible à l’utilisateur. Pour ce faire, une lentille récupère tous les photons disponibles y compris dans le proche infrarouge et les convertit en électrons à l’aide d’une photocathode. Ces électrons sont ensuite envoyés dans un tube sous vide au travers de plaques microperforées et subissent une amplification ; en gros, un électron génère l’émission d’autres électrons par réaction en chaine (cascaded secondary emission, en anglais). On atteint des facteurs d’amplification importants, de l’ordre de 50 000 à 90 000x. A l’extrémité du tube, les vagues d’électrons amplifiés frappent un écran au phosphore qui réagit en émettant la lumière verte caractéristique de la vision nocturne, et permet donc de voir la lumière réfléchie dans l’obscurité.

nvg1

Il s’agit donc d’un dispositif assez complexe et surtout nécessitant un facteur de forme important, en termes de poids et d’encombrement, et ce d’autant plus qu’il nécessite un générateur électrique puissant.

Des chercheurs de l’Université ANU (Australian National University) se sont attaqués à ce problème et viennent de publier des résultats intéressants permettant d’envisager des appareils plus compacts et plus faciles d’emploi, en utilisant les nanotechnologies.

nvg8

L’idée est d’utiliser des nano-antennes, à base d’arséniure d’aluminium et de gallium, 500 fois plus fines qu’un cheveu et capables de réaliser l’amplification des photons sans tube à vide. Le processus repose sur le phénomène dit de génération d’harmoniques de deuxième ordre (SHG pour Second Harmonic Generation). Là encore, je ne fais pas un cours de physique – j’en serais d’ailleurs incapable – mais j’essaie de simplifier au maximum. Ces nanocristaux d’arséniure de gallium ont en effet des propriétés non linéaires : ils doublent la fréquence de la lumière qui les traverse. Pour faire simple, ces cristaux sont capables de convertir la lumière infrarouge en lumière visible. En gros, ils changent la forme, la couleur et la forme de la lumière.

nvg6

L’intérêt est de nécessiter très peu d’énergie, et surtout de n’avoir besoin que d’une couche de nano-cristaux qui aurait ainsi la propriété presque magique de convertir et d’amplifier la lumière. Une telle couche pourrait être apposée sous forme de film, permettant ainsi de concevoir des lunettes à vision nocturne guère plus épaisses qu’une paire de lunettes de soleil. On peut également imaginer un pare-brise de véhicule conférant au pilote la capacité à conduire dans l’obscurité.

Aujourd’hui, les chercheurs de l’ANU ont montré qu’en utilisant ces nanocristaux, ils étaient capables de convertir un laser infrarouge en lumière visible. Pour aller plus loin, il faudra démontrer la capacité à traiter différentes fréquences – ce qui pourra être réalisé en combinant différentes tailles de nanocristaux.

nvg7

Les inventeurs espèrent développer (avec l’aide de la DARPA) un prototype d’ici 3 ans – en parallèle, d’autres voies existent comme le développement de lentilles de contacts à vision thermique, à base de graphène (voir cet article). Il est donc plus que probable que le fantassin de 2025 pourra disposer de systèmes impressionnants, et performants (en termes de puissance mais aussi de légèreté) conçus grâce à la démocratisation des nanotechnologies.

IF! Italians Festival 2015 - Day Two

Connaissez-vous Jigsaw (puzzle, en anglais) ? C’est le nouveau nom de l’entité auparavant appelée « Google ideas », le « think tank » et incubateur du géant d’Internet. Et leur dernière idée est intéressante : utiliser le profilage social et le ciblage de publicités et de contenus pour décourager les aspirants au djihad. Explication :

La force du moteur de recherche de Google réside à la fois dans sa capacité d’indexation, et dans sa technologie de modélisation et de prédiction des attentes des utilisateurs. Les équipes de Jigsaw ont ainsi eu l’idée de détecter les utilisateurs potentiellement réceptifs à la propagande djihadiste, et les « rediriger » vers des contenus réfutant les thèses et idées de Daech – a titre d’exemple, ci-dessous, les dures conditions de vie à Raqqa avec les files d’attente devant les points de ravitaillement.

Le programme s’appelle « Redirect Method ». Il consiste à analyser les recherches par les requêtes postées sur Google et sur YouTube, et à enrichir les résultats fournis à l’utilisateur concerné par des publicités et contenus aux antipodes de la communication de Daech : vidéos d’imams condamnant les thèses du groupe terroriste, témoignage de « repentis », vidéos montrant la véritable nature de l’organisation et de la vraie vie des recrues sur place, etc… Il s’agit ainsi d’une approche mêlant technologie de profilage, et ingénierie sociale, et fondée à la fois sur l’expertise algorithmique des équipes de Google, et sur leur capacité à moduler les résultats de recherche en fonction de l’effet psychologique recherché.

djihad3

Et plutôt que de chercher à créer du contenu sur mesure, Jigsaw utilise les vidéos déjà présentes sur Internet (en arabe et en anglais), qualifiées au préalable au sein de « playlists ». En utilisant du contenu préexistant, l’équipe pense que le résultat semble plus authentique, et non fabriqué explicitement pour décourager les potentielles recrues.

Et cela fonctionne : 1700 mots et requêtes-clés ont ainsi été établis, et liés à des publicités déclenchées automatiquement et connectées à des playlists sur YouTube. En moyenne, les taux de clic sur les « publicités » ont atteint les 9% (à comparer avec un taux de réponse de l’ordre de 2.5% pour une campagne publicitaire adwords classique). Les vidéos ont été regardées pendant 500 000 minutes. En revanche, aucune indication sur la véritable efficacité de la redirection. Le système a-t’il découragé effectivement des aspirants terroristes ? Personne ne peut l’affirmer, mais en deux mois de projet pilote, plus de 300 000 utilisateurs ont regardé les vidéos anti-djihad.

djihad2

La seconde phase du projet sera spécifiquement ciblée vers les recrues potentielles en Amérique du Nord, ainsi que vers les groupes extrémistes comme les « white supremacists ». Jigsaw est présidée par Jared Cohen, un ancien conseiller politique de Condolezza Rice et d’Hillary Clinton, et spécialiste des groupes terroristes. Pour l’écouter aux côtés d’Eric Schmidt parler de l’internet et de la technologie, du terrorisme, de la guerre à l’ère numérique, voici une vidéo animée par… Condolezza Rice elle-même.