Photo issue du site de l'Assemblée nationale ou de Wikipedia

Erwan Balanant
Question N° 15168 au Ministère des armées


Question soumise le 18 décembre 2018

M. Erwan Balanant attire l'attention de Mme la ministre des armées sur les armes létales autonomes. Depuis les années 1990, certaines puissances militaires se sont dotées d'armes autonomes. Si, à l'origine, ces armes étaient uniquement destinées à assurer des missions de surveillance, elles ont évolué pendant l'intervention des États-Unis en Irak sous la forme de drones télécommandés et, depuis quelques années, des armes létales autonomes émergent. Programmées pour neutraliser, détruire voire tuer, ces machines, souvent qualifiées de « robots tueurs », sont capables détecter une cible et de la mettre à mort sans intervention aucune humaine. Il s'agit notamment du robot militaire SGR-A1 élaboré par Samsung en Corée du Sud, à même d'exterminer tout intrus dans un rayon de 4 kilomètres. Un autre exemple est celui du robot MAARS aux États-Unis équipé d'une mitraillette M240 ou d'un lance-roquette et d'une vision panoramique à 360 degrés. Il se déplace en toute autonomie et si, aujourd'hui, ses interventions sont encore supervisées par des soldats humains, tel ne sera plus le cas dans un futur proche. Outre le caractère hautement préoccupant de ces technologies d'un point de vue moral, leur emploi irait à l'encontre du droit humanitaire. Tout d'abord, le principe d'humanité, fondamental en droit humanitaire, se trouverait évidemment bafoué, dès lors que la décision de tuer et de sélectionner une cible ne correspondrait plus à un choix éthique, et ne nécessiterait pas d'intervention humaine. Ensuite, conformément au droit international de la guerre, notamment à la Convention de Genève relative à la protection des personnes civiles en temps de guerre du 12 août 1949, les civils ne doivent nullement être pris pour cible d'attaques et les organisations humanitaires doivent être en mesure d'accéder aux zones de conflit. Or l'utilisation de telles technologies menacerait le respect de ces règles primordiales pour la protection des populations. Enfin, les armes létales autonomes pourraient bien évidemment dysfonctionner, voire être détournées. Il n'est pas à exclure que certains robots se retournent ainsi contre les soldats de l'armée à laquelle ils appartiennent. Face à la sévérité de ces menaces, 26 États, 86 organisations non gouvernementales et 25 000 experts en intelligence artificielle se sont prononcés contre l'utilisation de ces armes. Pourtant, les négociations en vue de la conclusion d'un traité international les prohibant sont compromises. En effet, fin août 2018, le Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes, mandaté dans le cadre de la Convention de l'Organisation des Nations unies sur certaines armes classiques, n'a réussi qu'à formuler des recommandations et à obtenir le renouvellement de son mandat de discussion. En revanche, aucun mandat de négociation ne lui a été accordé, du fait de la stricte opposition de certains États à l'interdiction, tels que la Russie, les États-Unis, la Chine et Israël. En réaction, le Parlement européen a adopté, le 12 septembre 2018, une résolution en vue d'obtenir une position commune des États membres contre les armes létales autonomes et de participer activement aux négociations internationales pour l'obtention d'un instrument juridique contraignant prohibant « tout système d'armes létales autonome dont les fonctions critiques, telles que le choix et l'attaque des cibles, sont dénuées de contrôle humain ». Si les discussions vont donc dans le bon sens au sein de l'Union européenne, elles doivent être approfondies à l'échelle internationale. Fin novembre 2018, lors de la réunion de la réunion annuelle des États parties à la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques, une minorité d'États a continué à faire blocage à l'engagement des négociations pour l'obtention d'un traité d'interdiction. Alors que le Président de la République a précisé être « catégoriquement opposé » aux robots tueurs, la France n'a soutenu que l'adoption d'une déclaration politique dans l'enceinte de l'Organisation des Nations unies. Certaines organisations non gouvernementales y voient alors une ambigüité. Comment le Gouvernement envisage-t-il de lutter contre l'avènement des armes létales autonomes dépourvues de toute éthique et représentant un énorme recul par rapport au droit international humanitaire ? Il lui demande si la France soutient l'interdiction totale de ces armes ou si elle est en faveur d'un encadrement juridique limité aux termes duquel ces armes seraient uniquement soumises à un certain degré d'intervention humaine.

Réponse émise le 19 mars 2019

La France mesure pleinement les défis éthiques et sécuritaires liés aux avancées de l'intelligence artificielle (IA) dans le domaine militaire. L'intelligence artificielle apporte déjà de réels gains permettant par exemple de réduire les risques de dommages collatéraux ou de prendre des décisions plus sûres et plus rapides dans des environnements complexes. Alors que certains voudraient réduire la réflexion sur l'IA aux seuls systèmes d'armes létaux autonomes (SALA), notre pays considère cependant que l'ouverture immédiate de négociations en vue d'un traité d'interdiction des "robots tueurs" ne serait pas la réponse pertinente. D'une part, il n'existe pas de définition internationale et la technologie actuelle ne permet pas d'envisager l'arrivée de tels systèmes autonomes à brève échéance. D'autre part, un traité d'interdiction des SALA ne serait aujourd'hui pas opérant, car il ne serait selon toute vraisemblance pas ratifié par les principales puissances ayant la capacité industrielle et technologique de développer des systèmes de ce type. Que vaudrait une norme préventive partagée par les seuls Etats les moins susceptibles d'être concernés ? La France privilégie donc une approche à la fois ambitieuse et réaliste, fondée sur la poursuite des discussions multilatérales, afin de définir des principes partagés par l'ensemble de la communauté internationale. A cette fin, la France a contribué activement aux réflexions du Groupe gouvernemental d'experts réuni depuis 2017 au sein de la Convention sur certaines armes classiques (CCAC), notamment en proposant avec l'Allemagne les éléments d'une déclaration politique. Cette approche, nécessairement progressive, est à même d'établir un cadre consensuel universel et efficace pour le développement et l'usage des systèmes d'armes dotés d'autonomie. Elle a donné ses premiers résultats : la dernière session du Groupe gouvernemental d'experts, en août 2018, a présenté dix "principes directeurs", qui affirment notamment l'applicabilité du droit international humanitaire à tous les systèmes d'armes, y compris autonomes, la nécessité de maintenir une responsabilité humaine dans les décisions de recours à la force, et de prendre en compte les risques de prolifération, de piratage ou d'acquisition de ces armes par des groupes terroristes. La France continuera à s'impliquer de façon concrète et réaliste, pour faire progresser les travaux en cours au sein de la CCAC, qui reste l'enceinte pertinente sur ce sujet, afin que tous les Etats concernés soient amenés à s'engager sur le développement des usages militaires de l'intelligence artificielle dans le respect du droit international.

Aucun commentaire n'a encore été formulé sur cette question.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.