Au-delà des choix militaires, techniques et juridiques, la décision sur la place du combattant dans l’emploi des systèmes d’armes létales autonomes (SALA) reste du ressort de l’autorité politique.
Telle est la conclusion d’une table ronde organisée, le 11 avril 2019 à Paris, par le député Fabien Gouttefarde, membre de la Commission de la défense nationale et des forces armées de l’Assemblée nationale. Y sont intervenus : le colonel Marc Espitalier, bureau plan de l’état-major de l’armée de Terre ; Julien Ancelin, enseignant à l’Université de Bordeaux et à l’Institut d’études politiques de Bordeaux ; Didier Gazagne et Alix Desies, cabinet Lexing Alain Bensoussan Avocats.
Le combat terrestre. Outre ses aspects rugueux et abrasif mettant en danger la vie humaine, le combat terrestre se déroule parfois au milieu de populations avec des complications légales et le risque de dommages collatéraux, rappelle le colonel Espitalier. Par exemple, pour contrôler 1 km2 avec 4 véhicules et 40 soldats, le chef doit apprécier la situation tactique et l’information doit circuler. L’intelligence artificielle (IA) lui permet de mieux la comprendre et d’éviter de se gêner les uns les autres. Outre la modélisation du terrain réel sans laquelle l’IA n’existe pas, la difficulté réside dans le traitement des données en vue d’une prise de décision. Quoiqu’inspirée de celle du monde civil, l’IA militaire présente des compatibilités particulières et des développements différents. L’emploi de la force implique une éthique, enseignée dans toutes les écoles militaires et entretenue par la culture du métier. Il repose sur le principe de proportionnalité pour être respecté sur le terrain, à savoir la bonne force au bon endroit. Les autorités politiques décident d’un engagement selon les rapports militaires et l’ambiance internationale. La chaîne de commandement en définit les règles, spécifiques au terrain d’intervention, et contrôle l’action militaire. Le chef exerce la responsabilité de la mise en œuvre des armes, a confiance en ses soldats et reste conscient de l’interdiction d’obéir à un ordre manifestement illégal. En matière d’IA, la Direction générale de l’armement certifie les matériels commandés, conformément à la règlementation et en tenant compte du risque acceptable, dont la pollution des données. Demain, l’évolution des systèmes imposera une rupture des équilibres. L’ennemi, étatique ou non, se dotera de tous les équipements pour atteindre ses fins. Il s’agira de disposer des moyens pour aller plus vite que lui.
L’éthique. En 2013, l’ONU a défini les SALA comme des « systèmes d’armes robotiques qui, une fois activés peuvent sélectionner et attaquer des cibles sans intervention complémentaire d’un opérateur humain. L’élément à retenir est que le robot choisit de façon autonome de viser telle cible et d’utiliser la force meurtrière ». Toutefois, estime Julien Ancelin, du drone aux hybridations technologiques, trois modèles de SALA se présentent, dont deux à autonomie partielle et un à autonomie totale. Ainsi, dans le modèle de l’être humain « dans » la boucle, l’opérateur déploie un SALA, qui sélectionne une cible. Dans le modèle de l’être humain « sur » la boucle, l’opérateur déploie le SALA et peut décider de la suspension de l’engagement de la force. Le SALA sélectionne alors la cible et engage la force, sauf décision contraire de l’opérateur. En revanche, dans le modèle « hors » de la boucle, l’opérateur déploie le SALA, qui sélectionne la cible et engage la force sans que l’opérateur puisse l’en empêcher. En 2017, une déclaration commune franco-allemande précise que seul l’être humain doit rester capable de prendre la décision ultime de recourir à la force létale et exercer un contrôle suffisant sur les armes létales qu’il emploie. Depuis, les besoins de responsabilité et de vérification humaine ont été réaffirmés par le président de la République Emmanuel Macron. Puis la ministre des Armées, Florence Parly, a précisé que l’homme restera dans la boucle des systèmes d’armes admis, la machine ne devant, « sur la base d’une numérisation, (que) traiter de façon massive des données provenant des capteurs ».
Les enjeux diplomatiques. En matière d’applications civiles et militaires de l’IA, la Convention de l’ONU sur certaines armes classiques (CCAC) a défini diverses postures diplomatiques, expliquent Didier Gazagne et Alix Desies. La CCAC vise à interdire ou limiter l’utilisation d’armes pouvant être considérées comme produisant des effets traumatiques excessifs sur les combattants ou comme frappant des civils sans discrimination, dont notamment les SALA. Elle recommande : le maintien de la responsabilité humaine ; l’application sans exception du droit international ; la sécurité dès la conception ; pour le secteur civil, de ne pas faire obstacle au progrès scientifique à des fins pacifiques. Au cours des discussions d’experts gouvernementaux entre 2013 et 2019, trois ensembles se dégagent : les opposants aux SALA, à savoir Cuba, tous les pays d’Amérique centrale et du Sud, l’Algérie, quelques pays d’Afrique, l’Egypte, l’Irak, le Pakistan et l’Autriche ; les observateurs, à savoir l’Iran et quelques pays d’Asie centrale et d’Afrique ; les partisans des SALA, à savoir quelques pays d’Afrique et les autres membres de l’ONU. Les Etats-Unis consacrent 716 Md$ à la défense, dont plus de 13,7 Md$ à l’IA, et ont adopté des normes nationales pour le développement et l’utilisation des SALA (voir encadré). La Russie développe des « armes invincibles », comme le planeur hypersonique Avangard et la torpille furtive Poseidon à charge et propulsion nucléaires. Elle perfectionne la guerre électronique avec les systèmes de brouillage Leer-3 contre les drones et Krasukha contre les missiles à guidage radar. Enfin, elle compte ouvrir une université de formation à l’IA vers 2035. La Chine entend devenir la première puissance mondiale dans le domaine de l’IA d’ici à 2025, où son investissement se monterait à plus de 14,7 Md$. Outre la fusion des secteurs civil et militaire, elle développe un programme expérimental d’armes intelligentes. Un traité, contraignant, d’interdiction des SALA se heurterait au refus de signature des Etats-Unis, de la Russie, de la Chine, d’Israël de l’Arabie saoudite et peut-être de la France. En outre, il amplifierait des écarts technologiques et l’état de dépendance des Etats signataires.
Loïc Salmon
Aux Etats-Unis, l’autonomie de systèmes d’armes se décline selon diverses graduations. Ainsi, le Département de la sécurité intérieure présente une échelle croissante de 0 à 10 : 0) véhicule téléguidé ; 1) mission préprogrammée ; 2) mission modifiable ; 3) réponse effective en temps réel aux erreurs ; 4) adaptation aux erreurs et événements ; 5) coordination de plusieurs véhicules en temps réel ; 6) coopération de plusieurs véhicules en temps réel ; 7) connaissance du champ de bataille ; 8) compréhension du champ de bataille ; 9) compréhension de « l’essaimage » du champ de bataille ; 10) autonomie totale. La graduation du bureau de recherche navale du Département de la marine ne croît que de 1 à 6 : 1) véhicule télé-opéré ; 2) assistance humaine ; 3) délégation de contrôle ; 4) surveillance humaine ; 5) initiative partagée ; 6) autonomie totale du véhicule.
Défense : l’IA, nombreuses applications militaires possibles
Défense : l’emploi de l’IA sur le champ de bataille de demain
Sécurité : l’intelligence artificielle, enjeu de souveraineté nationale