En décembre 2016, s’est tenue à Genève à l’initiative de l’ONU une conférence réunissant des délégations de 123 pays et chargée d’examiner la portée et le fonctionnement de la Convention sur certaines armes classiques. Cette rencontre était l’occasion d’étudier les propositions relatives à des catégories d’armes que la Convention ne couvre pas, tels que les « robots tueurs », également appelés systèmes d’armes létaux autonomes (SALA).
Au sein de l’ONU, ce type d’armement a été défini dans le cadre d’un rapport datant de 2013 (1) : il s’agit de « systèmes d’armes robotiques qui, une fois activés, peuvent sélectionner et attaquer des cibles sans intervention complémentaire d’un opérateur humain. L’élément à retenir est que le robot choisit de façon autonome de viser telle cible et d’utiliser la force meurtrière ».
La convention sur certaines armes classiques a été adoptée en 1980. Elle constitue un socle pour d’autres instruments ayant vocation à l’interdiction ou la limitation de l’emploi de certaines méthodes et de certains moyens de guerre.(2)
Leurs opposants souhaitent que les SALA fassent l’objet d’un protocole additionnel à la convention de 1980.
Les conventions de La Haye et celles de Genève définissent les règles applicables à la conduite des hostilités. Elles contiennent entre autres le principe de discrimination, qui impose aux belligérants de distinguer les objectifs militaires, qui peuvent être attaqués, des biens et populations civils qui ne doivent faire l’objet d’aucune attaque volontaire. En l’état de l’art, si les robots peuvent atteindre une autonomie suffisante pour engager un objectif, la technologie n’est pas assez avancée pour assurer le respect de ce principe.
Différentes réunions se sont tenues depuis trois ans, avec pour mandat d’apporter des clarifications terminologiques, d’identifier les problèmes soulevés et de formuler une série de recommandations générales.
Les débats ont porté sur le degré de contrôle envisagé comme critère pour définir une arme autonome. Être en-deçà du seuil de contrôle minimum équivaudrait pour une arme, à être considérée comme illicite. Trois écoles s’affrontent :
– La première position, celle du contrôle effectif, demande, comme son nom l’indique, qu’un humain soit à l’origine du ciblage et de l’engagement d’un objectif. Même les drones actuellement employés par l’armée américaine ne pourraient plus être utilisés. Ce critère a peu de chance de faire consensus parmi les nations.
– Le contrôle significatif est moins contraignant. Il suppose qu’un humain exerce une activité de supervision de l’action du robot.
– Dernier critère en lice : celui du jugement humain approprié. Il s’agit de garantir que le système a été employé tel que cela avait été prévu au préalable. Il amènerait à considérer comme des armes licites celles pour lesquelles l’humain a conçu et paramétré des règles d’engagement. Soit une large acceptation, qui renvoi directement à la notion de responsabilité.
La doctrine citée par le rapport des Nations Unis de 2013 considère que « si la nature d’une arme rend impossible l’établissement des responsabilités concernant les conséquences de son utilisation, cette arme devrait être jugée abominable et son utilisation déclarée contraire à l’éthique et illicite ».
Dans ces conditions, les états ont intérêt à définir une responsabilité ad hoc. Pour ce faire, un cadre juridique contraignant à l’enregistrement des processus de décision de l’arme pourrait être une solution. En cas d’incident sur le terrain, les enregistrements permettront de déterminer s’il y a eu une faille dans le système que l’état de l’art aurait du permettre d’éviter.
Et si une responsabilité devait être recherchée, les enregistrements devraient permettre de démêler la part de chacun, entre fabricant, installateur et opérateur de l’arme. Toutefois, si la responsabilité peut être déterminée, l’intentionnalité sera en pratique quasiment indémontrable. De fait, le cadre juridique permettra d’améliorer normes et processus plus souvent que de mettre en cause la responsabilité d’un des acteurs.
L’ONU a décidé de créer un groupe d’experts gouvernementaux chargés d’étudier deux questions :
- définir les SALA, en fonction la valeur militaire de cette technologie, le risque de prolifération, et le droit humanitaire.
- comment leur appliquer le droit international, notamment le droit humanitaire ?
C’est l’ambassadeur indien Amandeep Singh Gill, représentant de son pays en matière de désarmement, qui présidera les travaux du groupe d’étude en 2017.
La conférence de décembre 2016 réunissait entre autres les Etats-Unis et la Chine. La Russie, qui participait également, était défavorable à la constitution des groupes de travail. Elle a déclaré qu’une interdiction était prématurée et s’est abstenue lors du vote.
La Chine a déclaré qu’elle avait besoin d’un nouvel instrument international sur ces systèmes d’armes autonomes.
Après une période de pourparlers de deux semaines, la prochaine convention, qui se tiendra d’août à novembre 2017 à Genève, devrait être l’occasion de statuer sur l’interdiction ou non de ces armes.
En 2014, cinq pays se disaient en faveur de l’interdiction des robots tueurs. D’ors et déjà, avec le concours de l’Argentine, du Guatemala, du Panama, du Pérou, de Cuba, du Pakistan, de l’Égypte, du Venezuela, du Mexique, du Zimbabwe et du Vatican, un groupe d’une vingtaine de pays s’est prononcé en faveur de l’interdiction.
[…] L’article dans son intégralité est paru dans Planète Robots n°45 du 1er Mai 2017