Avec cet article, l’auteur nous livre son analyse des transformations de l’art de la guerre portées par l’Intelligence artificielle et par ses prolongements militaires : les systèmes d’armes létaux autonomes ou SALA. Loin des fantasmes, l’auteur expose avec rigueur les enjeux de cyber-sécurité associés aux SALA. Il s’interroge ensuite sur les bouleversements stratégique et éthique envisageables, une fois ce risque cyber maîtrisé.
Les opinions exprimées dans cet article n’engagent pas le CSFRS.
Les références originales de ce texte sont: Thierry Berthier, « Vers une dissuasion technologique fondée sur les systèmes d’armes autonomes », Revue de la Gendarmerie Nationale, n°260.
Ce texte, ainsi que d’autres publications, peuvent être visionnés sur le site du CREOGN : www.gendarmerie.interieur.gouv.fr/crgn/CREOGN
Vers une dissuasion technologique fondée sur les systèmes d’armes autonomes
Au centre des débats stratégiques, économiques et éthiques, l’Intelligence artificielle (IA) s’apprête à transformer l’art de la guerre en introduisant de nouveaux acteurs sur le champ de bataille, les SALA ou systèmes d’armes létaux autonomes. S’ils focalisent les craintes entourant les récents progrès de l’IA, les SALA constituent également les éléments fondateurs d’une nouvelle doctrine militaire qui cherche à exclure les hommes de ses propres forces ou de ses alliés de la zone d’immédiate conflictualité.
L’intelligence artificielle, vecteur de puissance stratégique
L’autonomie des systèmes qui émerge des progrès de l’IA ouvre ainsi de nouveaux champs opérationnels pour la défense et la sécurité des nations. Elle induit une compétition mondiale qui peut être qualifiée aujourd’hui de course à l’IA militaire. L’importance des enjeux stratégiques et géopolitiques de l’IA a fait déclarer, le 4 septembre 2017, au dirigeant russe Vladimir Poutine: «L’intelligence artificielle est l’avenir, pas seulement de la Russie, mais de toute l’humanité. Elle présente des opportunités colossales, mais également des menaces qui sont difficiles à prévoir. Quiconque devient le leader de ce secteur deviendra le maître du monde ». Les dirigeants chinois souhaitent que leur nation devienne à très court terme la puissance leader en matière d’IA. Sur un plan militaire, la Chine développe une nouvelle génération de missiles de croisière[1] équipés de systèmes d’apprentissages performants leur donnant, une fois lancés, une forte autonomie. Les États-Unis occupent la pôle position en matière de systèmes d’armes autonomes. La recherche et l’innovation américaine résultent d’un écosystème qui fait coopérer les grands acteurs du numérique mondial (Google, Apple, Facebook, Amazon), les grands laboratoires de recherche nationaux (MIT, Stanford, Berkeley, Caltech,…), et les organismes liés à la Défense (DARPA, laboratoires de l’US AirForce, de l’US Navy…). Il en résulte une alchimie propre à l’innovation qui rend sa diffusion optimale, notamment vers la robotique militaire.
La question de l’autonomie
La première phase de robotisation des systèmes d’armes consiste à faire sortir les équipages des engins pour les relocaliser dans un poste de pilotage extérieur sécurisé tout en conservant le même niveau de capacités opérationnelles. Ce principe de « dronification » des matériels existants fait baisser le risque létal de l’équipage et participe à une « économie du sang » que les opinions publiques de la plupart des nations démocratiques réclament. Un exemple emblématique de dronification de matériel concerne le char de combat russe T14 Armata présenté en 2015. Dans la première version, l’équipage n’est plus situé dans la tourelle totalement automatisée, mais dans une capsule blindée isolée à l’arrière de l’engin. La seconde version déporte l’équipage hors du « char-drone » dans un poste de pilotage délocalisé. Le T14 « dronisé » peut alors s’intégrer au sein d’unités de combat robotisées à l’image des unités russe Platform-M qui entrent en phase d’exploitation. On notera que cette première phase de robotisation maintient un contrôle direct de l’opérateur humain sur la machine qui fonctionne en mode télé-opéré.
La seconde phase de robotisation consiste à introduire un niveau d’autonomie dans les systèmes armés. Cette opération est beaucoup plus complexe que la première. L’intelligence artificielle intervient ainsi dans chaque composante fonctionnelle : déplacement, positionnement, acquisition d’images par différents capteurs, traitement des images, reconnaissance de formes, de contextes et de situations par apprentissage automatisé, décision d’ouvrir le feu. Les premiers systèmes armés semi-autonomes ont fait leur apparition : robot sentinelle SGRA1 Samsung déployé le long de la frontière entre les deux Corées, navire autonome chasseur de sous-marins SeaHunter issu d’un programme de recherche DARPA – US Navy, gamme Kalachnikov de robots armés autonomes présentée en juillet 2017, programme de vol autonome Dassault NEURON. La liste des démonstrateurs de systèmes armés autonomes s’allonge et concerne désormais tous les milieux : terrestre, maritime, aéronautique et spatial. Elle suscite également des craintes et des protestations d’une fraction de la communauté scientifique et de personnalités du numérique. Elon Musk, inventeur visionnaire, dirigeant de Tesla et de SpaceX et grand acteur de l’intelligence artificielle, multiplie les lettres ouvertes demandant l’interdiction pure et simple des systèmes armés autonomes et de l’intelligence artificielle utilisée à des fins militaires. Désireux de « sauver le monde »,il en appelle à l’ONU pour voter cette interdiction en 2018[2]. Dans ses différentes lettres ouvertes, Elon Musk n’argumente jamais ses prévisions de dérive malveillante de l’IA qu’il considère a priori comme capable d’avoir conscience de ses propres actions (IA forte).
Cyber-résilience des systèmes armés autonomes
La question de la cybersécurité des systèmes armés autonomes conditionne leur déploiement. L’objet des mises en garde répétées d’Elon Musk oscille d’ailleurs entre le fantasme d’une IA forte, consciente de son action, décidant de se retourner contre son concepteur et des scénarii plus pragmatiques d’IA faibles trompées ou détournées par l’adversaire. Le risque principal associé à la mise en œuvre de systèmes armés autonomes relève en premier lieu de la cyber-insécurité liée à l’apprentissage automatisé. L’autonomie accentue la complexité d’une éventuelle reprise de contrôle du superviseur en cas d’attaque.
Des équipes de recherche[3] ont montré en 2016 et 2017 qu’il était possible de « leurrer » des réseaux de neurones pourtant très performants en reconnaissance d’objet dans une image (vision artificielle). Des attaques par « exemples contradictoires – Adversarial Attacks on Neural Network » ont été menées sur plusieurs grandes plateformes d’apprentissage automatisé reposant sur des réseaux de neurones. Ces attaques consistent à perturber l’image d’un objet ou d’un animal bien reconnue par le réseau de neurone. Cette perturbation s’effectue par ajout d’un bruit spécifique sur l’image initiale de sorte que l’image bruitée reste totalement identifiable par un humain mais entraîne une fausse identification par le réseau de neurones. L’expérience a été réalisée à partir d’images de pandas que le réseau de neurone sait reconnaître avec un haut niveau de fiabilité. Le bruit appliqué sur l’image de panda demeure quasiment invisible pour un humain alors que le réseau de neurones l’identifie de façon presque certaine comme un gibbon. Le même type d’expérience a été mené avec des panneaux de signalisation : l’image d’un panneau stop, légèrement bruitée, a été perçue par le réseau de neurones comme un panneau de priorité… On imagine facilement les ravages causés par ce type d’attaque sur un véhicule autonome.
Au-delà du volet technique du processus de leurre, les attaques par exemples contradictoires montrent que l’état de l’art de l’autonomie présente aujourd’hui des vulnérabilités qu’il convient de prendre en compte et de résoudre avant tout déploiement massif d’unités armées autonomes. C’est le rythme de résolution de ces vulnérabilités qui déterminera le rythme de mise en production des systèmes armés autonomes.
En conclusion…
Une fois les questions de cyberrésilience résolues et présentant un niveau admissible sur le plan opérationnel, on peut parier sur l’établissement d’une forme de dissuasion technologique fondée sur un équilibre entre les puissances de feu des unités robotisées que les grandes nations pourront mettre en œuvre sur le champ de bataille. Les capacités réciproques de « leurre » des systèmes adverses influenceront le point d’équilibre de cette nouvelle dissuasion. De manière très utopique, on peut imaginer une économie totale de vies humaines dans un conflit du futur où la première armée remportant le combat robotisé serait tacitement considérée par ses adversaires comme celle qui remporte la guerre. La technologie rendrait inutile et irrationnel l’engagement de combattants humains voués à une défaite certaine. La guerre hybride dépasserait ainsi le prix du sang dans un rapport de force relevant purement du niveau d’intelligence artificielle déployé par les belligérants…
References