BFM Business

L’interdiction des "robots tueurs" ne fait (toujours) pas l'unanimité à l'ONU

Le premier robot policier, dévoilé à Dubaï, est bien heureusement dépourvu d'arme.

Le premier robot policier, dévoilé à Dubaï, est bien heureusement dépourvu d'arme. - GIUSEPPE CACACE / AFP

Alors que se tient à Genève une réunion du groupe d’experts gouvernementaux sur le sujet des "robots tueurs" autonomes, Amnesty International et Human Rights Watch militent en faveur de leur interdiction pour 2019.

Elles tirent, une nouvelle fois, le signal d’alarme. Soixante-quinze ONG engagées pour la campagne "Stop Killer Robots", coordonnée par Human Rights Watch (HRW), ainsi qu’Amnesty International alertent sur les dangers des armes létales autonomes, plus connues sous le nom de "robots tueurs". Toutes estiment que la seule solution envisageable réside dans l’interdiction totale de ces armes. Une réunion d'experts gouvernementaux se tient actuellement à Genève pour en débattre.

Ces "robots tueurs" sont encore très peu à être déployés. La formule, volontairement simpliste, désigne des armes conçues pour détruire et neutraliser, capables de prendre la décision de tuer sans intervention humaine. En 2015, Le Monde notait l’existence de "mitrailleuses intelligentes", les SGR-A1, installées par la Corée du Sud dans la zone démilitarisée qui la sépare de la Corée du Nord.

Conçus par Samsung, ces robots militaires sont capables de déceler, de jour comme de nuit, les mouvements d’un intrus et de tirer de façon autonome sur une personne ou un véhicule en approche. Des drones semi-autonomes capables d’envoyer des fléchettes à décharge électrique, du gaz lacrymogène et des projectiles contenant du gaz poivre existent déjà également, relève Amnesty International. L'association précise que certains d'entre eux ont été utilisés pour envoyer du gaz lacrymogène sur des manifestants à Gaza.

"L’objectif est d’aboutir à ce que les États s'engagent sur un traité d'interdiction juridiquement contraignant de ces armes pour 2019", explique auprès de BFM Tech Tony Fortin, chargé d'études à l'Observatoire des armements (Obsarm). "Pour l'heure, certains États ne souhaitent pas un traité mais une simple déclaration, voire rien du tout", En l’absence de réelles contraintes, la logique industrielle pourra inciter à poursuivre des recherches pour rester dans la course.

La France entre deux eaux

En réalité, seuls 26 États se sont à ce jour prononcés en faveur d’une interdiction totale du développement des armes létales autonomes, les derniers en date étant l’Autriche, la Chine, Djibouti et la Colombie, en avril. Le 4 juillet dernier, le Parlement belge a adopté une résolution soutenant l’interdiction de l’usage de ces armes et s'est engagé à ce que l’armée belge ne les utilise pas.

La France a une position moins tranchée. Si Emmanuel Macron s'est par le passé et auprès de Wired dit "catégoriquement opposé" à des systèmes d'armes autonomes, le pays rejette désormais l'idée de négocier une nouvelle législation internationale sur le sujet. Les États-Unis, le Royaume-Uni, Israël et la Russie sont du même avis. "Ces puissances investissent massivement dans les drones armés et autres systèmes autonomes", complète "Stop Killer Robots" dans son communiqué.

Les appels à la prudence se sont multipliés ces dernières années à l’égard des armes autonomes. Fin août 2017, une centaine de responsables d'entreprises de robotique ou spécialisées dans l'intelligence artificielle, dont le milliardaire Elon Musk, ont écrit une lettre ouverte aux Nations unies pour mettre en garde contre les dangers des armes autonomes.

Le 7 juin dernier, Google s'est engagé à ne pas mettre ses technologies d'intelligence artificielle au service de l'armement. Le projet Maven, prévoyant de collaborer avec le Pentagone pour équiper des drones militaires de reconnaissance d'images, avait semé la discorde au sein de l'entreprise et provoqué une vingtaine de démissions.

https://twitter.com/Elsa_Trujillo Elsa Trujillo Journaliste BFM Tech