Les nations reprennent les discussions sur les « robots tueurs » alors que les espoirs d’un accord s’amenuisent
Les pays à l’origine d’un accord des Nations Unies sur les armes se sont réunis cette semaine sur la question épineuse des systèmes d’armes autonomes létaux, familièrement appelés « robots tueurs », que les groupes de défense veulent strictement limiter ou interdire.
La dernière conférence des pays à l’origine d’une Convention sur certaines armes classiques aborde un large éventail de questions allant des armes incendiaires aux restes explosifs de guerre, en passant par une catégorie spécifique de mines terrestres et les systèmes d’armes autonomes.
Les opposants à ces systèmes craignent un jour dystopique où des chars, des sous-marins, des robots ou des flottes de drones équipés d’un logiciel de reconnaissance faciale pourraient errer sans surveillance humaine et frapper des cibles humaines.
« Il s’agit essentiellement d’une occasion vraiment cruciale pour les États de prendre des mesures pour réglementer et interdire l’autonomie des systèmes d’armes, ce qui signifie essentiellement des robots tueurs ou des systèmes d’armes qui vont fonctionner sans contrôle humain significatif », a déclaré Clare Conboy, porte-parole du groupe de défense Stop Killer Robots.
Les différents pays se sont rencontrés à plusieurs reprises sur cette question depuis 2013. Ils sont confrontés à ce que Human Rights Watch a appelé une décision cruciale cette semaine à Genève, à savoir s’il faut ouvrir des discussions spécifiques sur l’utilisation des systèmes d’armes autonomes ou laisser les réunions régulières des pays y travailler.
Un groupe d’experts gouvernementaux qui s’est penché sur la question n’est pas parvenu à un consensus la semaine dernière, et les groupes de défense affirment que des pays comme les Etats-Unis, la Russie, Israël, l’Inde et la Grande-Bretagne ont entravé les progrès.
Le Comité international de la Croix-Rouge a averti ce mois-ci que « la perte de contrôle et de jugement humain dans l’utilisation de la force et des armes soulève de graves préoccupations d’un point de vue humanitaire, juridique et éthique ».
Certaines puissances mondiales s’opposent à toute contrainte contraignante ou non volontaire sur le développement de tels systèmes, en partie parce qu’elles craignent que si les pays ne peuvent pas développer ou rechercher de telles armes, leurs ennemis ou des groupes non étatiques pourraient le faire. Certains pays affirment que la frontière est mince entre les systèmes d’armes autonomes et les systèmes de ciblage et d’armement assistés par ordinateur qui existent déjà.
Les Etats-Unis ont appelé à un « code de conduite » régissant l’utilisation de ces systèmes, tandis que la Russie a fait valoir que le droit international actuel est suffisant.
Le Secrétaire général de l’ONU, Antonio Guterres, dans une déclaration prononcée en son nom lors de la réunion de lundi, a exhorté la conférence sur la CCAC à « faire progresser rapidement ses travaux sur les armes autonomes qui peuvent choisir des cibles et tuer des personnes sans intervention humaine ».
Il a appelé à un accord « sur un plan ambitieux pour l’avenir afin d’établir des restrictions sur l’utilisation de certains types d’armes autonomes ».
Les discussions doivent se poursuivre jusqu’à vendredi.
La question devrait rester au sein du groupe d’experts gouvernementaux et ne pas faire l’objet de discussions spéciales – en vue d’autres accords de l’ONU qui limitent les munitions à fragmentation et les mines terrestres.