Le droit de la guerre et les “robots tueurs”

AVERTISSEMENT : code court de balise de début de note de bas de page déséquilibré trouvé.

Si cet avertissement n'est pas pertinent, veuillez désactiver la fonction de validation de la syntaxe dans le tableau de bord sous Réglages généraux > Codes courts de début et de fin de note de bas de page > Vérifiez les codes courts équilibrés.

Code court de la balise de début déséquilibrée trouvé auparavant :

““Dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une Haute Partie contractante a l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonsta…”

Depuis un an les voix de la société civile s’élèvent contre l’émergence de technologies allant vers la création de “robots tueurs”. Censés épargner des vies humaines et améliorer l’efficacité des opérations militaires, ces armes autonomes constituent une grave menace pour le respect du droit de la guerre.

Depuis toujours, l’Homme a cherché à améliorer son armement, que ce soit pour la chasse ou pour la guerre. Au-delà de la définition même de ce qu’est une situation de conflit armé, et des manipulations qui en sont faites par des expressions telles que “la guerre contre le terrorisme” [[Déclaration de Gabor Rona, Quand une “guerre” n’est-elle pas une “guerre” ? Le droit des conflits armés et la “guerre internationale contre le terrorisme”, 16 mars 2004.]], il est fondamental de comprendre que des règles existent pour encadrer les moyens et les actions des combattants. Les forces armées n’ont pas tous les droits en temps de guerre Un des principes essentiels du droit de la guerre, ou droit international humanitaire (DIH), est que le droit des forces armées de choisir leurs moyens et leurs méthodes de guerre n’est pas illimité. Le DIH est un ensemble de règles qui s’appliquent pendant un conflit armé dont l’objectif est, d’une part, la protection des personnes qui ne participent pas, ou ne participent plus, aux hostilités (personnes civiles, combattants blessés ou malades, prisonniers de guerre) et, d’autre part, la règlementation de la conduite des hostilités. Bien que ces normes soient aussi anciennes que la guerre elle-même, elles ont été développées et codifiées dans les Conventions de Genève de 1949 et leurs Protocoles additionnels de 1977, ainsi que dans d’autres traités portant sur des sujets spécifiques (les enfants-soldats, la justice pénale internationale,…). Beaucoup de règles du DIH sont aussi considérées comme partie intégrante du droit international coutumier, fondé sur une “pratique générale acceptée comme étant le droit” qui a donc force exécutoire pour toutes les parties engagées dans un conflit armé. Ces règles limitant le choix des moyens et méthodes de guerre figurent dans le premier Protocole additionnel de 1977 relatif à la protection des victimes des conflits armés internationaux. D’autres traités interdisent ou limitent l’emploi de certaines armes spécifiques, notamment, les armes biologiques, chimiques ou incendiaires, les armes à laser aveuglantes et les mines terrestres. L’article 36 du Protocole additionnel de 1977 [[“Dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une Haute Partie contractante a l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du présent Protocole ou par toute autre règle du droit international applicable à cette Haute Partie contractante.” (art 36, Protocole Additionnel I] énonce quant à lui un principe simple : l’emploi de nouvelles technologies, qu’elles soient armes, moyens ou méthodes, ne peut contrevenir au DIH applicable. Ainsi une arme nouvelle pourrait donc faire l’objet d’une interdiction spécifique préexistante (par nature), violer une interdiction générique (par ses effets), et/ou ne pas pouvoir être employée en toutes circonstances (mise en œuvre). Autrement dit une arme ne peut pas être évaluée sans tenir compte de la méthode de guerre selon laquelle elle sera utilisée. La problématique des drones : un débat juridico-technico-éthico-socio-humanitaire Considérant la rapidité avec laquelle les technologies en matière d’armement évoluent, l’analyse juridique des nouvelles armes est essentielle. Des interdictions ou restrictions découlent du principe de précaution comme ;
  • “L’interdiction d’employer des méthodes ou moyens de combat qui ne peuvent pas être dirigés contre un objectif militaire déterminé” (art. 51, par. 4, al. b).
  • “L’interdiction d’employer des méthodes ou moyens de combat dont les effets ne peuvent pas être limités comme le prescrit le Protocole additionnel I” (art. 51, par. 4, al. c).
Or, les drones armés (“robots tueurs”), sont des armes autonomes, qui peuvent contrôler, détecter, sélectionner et attaquer des cibles sans contrôle humain. Bien que la distance entre le drone télé-opéré (“drones tueurs” de la CIA [[S. Taillat, Drones-tueurs et éliminations ciblées, 24 octobre 2013, IFRI]]) et le robot autonome soit grande [[“La technologie qui permettrait l’automatisation de l’ensemble des fonctionnalités des LARs ne sera pas accessible, selon les chercheurs en robotique et en intelligence artificielle, avant vingt ou trente ans.” Eric Germain, spécialiste de l’éthique des nouvelles technologies]] , ces armes manquent de cadre juridique et menacent d’ores et déjà les principes du droit de la guerre. Jusqu’à présent six états sont connus pour effectuer recherches et tests dans ce domaine : les états Unis, le Royaume Uni, la Chine, Israël, la Russie et la Corée du Sud. Une campagne internationale pour l’interdiction préventive [[Le protocole IV de la CCW a interdit également de manière préventive les lasers aveuglants.]] des robots capables de cibler et d’ouvrir le feu sans l’intervention d’un opérateur humain a été lancée en avril 2013 par un groupe d’ONG coordonné par Human Rights Watch (HRW) [[Pour plus d’informations : http://www.stopkillerrobots.org/]]. Cette campagne se bat pour une interdiction préventive du développement, de la production et de l’utilisation des robots létaux autonomes. “Donner à des machines le pouvoir de décider qui peut survivre et qui doit mourir sur le champ de bataille reviendrait à aller trop loin dans le recours à la technologie. L’exercice par l’homme d’un contrôle sur la guerre robotisée est essentiel pour réduire le nombre des morts et des blessés parmi les civils”, dénonce Steve Goose, directeur de la division Armes de HRW.
Des avantages militaires qui cachent de nombreux dangers Tout d’abord les armes autonomes posent le problème de l’impunité : si un robot viole le droit international humanitaire, qui en assumerait la responsabilité ? Est-ce le commandant, qui mène l’opération ? Le programmeur du robot? L’usine qui l’a produit ? L’investisseur ? Tous auraient une responsabilité dans l’exaction qu’un robot pourrait commettre, mais, sans cadre régulateur, ces crimes risquent fort de rester impunis. Ensuite, il faut considérer le risque de prolifération et de mauvais usage. Des groupes armés non étatiques tels que des rebelles armés, des mouvements indépendantistes ou des organisations militaires et politiques pourraient se procurer des armes autonomes, mais aussi des sociétés de sécurité, dont le contrôle pourrait être largement amélioré [[Mampaey Luc, La guerre en sous-traitance – L’urgence d’un cadre régulateur pour les sociétés militaires et de sécurité privées, Rapport du GRIP, 2/2010.]]. La question est aussi bien évidemment éthique et logique. Peut-on vraiment céder à une machine la décision de cibler et d’attaquer en respectant le principe d’humanité inhérent au DIH ? On ne peut décemment pas attendre d’un robot qu’il ait un jugement moral, ni qu’il comprenne un contexte, or c’est l’analyse des multiples éléments présents sur un champ de bataille qui permet de comprendre une situation et de prendre des décisions conformes au DIH : qu’est-ce qui différencie un combattant d’un prisonnier de guerre ? Un enfant d’un combattant ? Comment un robot pourrait-il respecter le principe de proportionnalité [[“Si après avoir pris l’ensemble des précautions nécessaires, la neutralisation ou la destruction de l’avantage militaire ennemi risque d’engendrer quand même des pertes et des dommages civils, ces opérations militaires doivent être réalisées en veillant à éviter de provoquer des pertes ou des dommages parmi les personnes et les biens civils qui seraient excessifs par rapport à l’avantage militaire concret et direct attendu.”, (art 51 §5b, Protocole Additionnel I] ? De plus, avoir des acteurs responsables et identifiables dans un conflit est fondamental pour distinguer les conflits armés internationaux et les conflits armés non internationaux, pour lesquels les règles du DIH s’appliquent différemment. Par ailleurs, en parallèle au débat sur le DIH et son respect, ces technologies seraient vraisemblablement appliquées au civil à travers des robots de surveillance [[Pour plus d’informations : https://www.privacyinternational.org/]] , dont l’évolution pourrait aller vers un équipement en armes “légères”. Un accord est donc plus que nécessaire aujourd’hui pour contrôler ces armes avant que les investissements dans ce secteur ne soient trop importants et empêchent un changement de cap, ce qui pourrait déboucher sur une véritable course à l’armement. Les représentants de 117 gouvernements ont accepté d’entamer, dans le cadre de la Convention sur certaines armes classiques, du 13 au 16 mai 2014, des pourparlers internationaux sur ces “systèmes d’armes robotisés létaux et autonomes”, au cours desquels ils pourront considérer tous les aspects juridiques, techniques, éthiques, sociétaux et humanitaires de ces technologies nouvelles. Cette réunion dans le cadre des Nations Unies est une avancée notable dans le débat au niveau international, et s’inscrit dans la même lignée que la résolution adoptée par le Parlement européen le 27 février 2014. Cette résolution sur l’utilisation de drones armés comprend un appel à l’interdiction des robots tueurs. Ainsi la résolution encourage les membres de l’Union européenne et le Conseil des Ministres à “interdire la mise au point, la production et l’utilisation d’armes entièrement autonomes qui permettent de procéder à des frappes sans intervention humaine”. La société civile doit se mobiliser pour que les États adoptent des mesures contraignantes au niveau international, et ainsi anticiper les conséquences du développement de telles armes afin d’assurer la sécurité de tous et le respect du droit des conflits armés. Alice Vrinat Plus d’informations sur les systèmes d’armement (télécommandés, automatisés ou autonomes) et sur le débat des drones armés : • Rapport sur le DIH et les défis posés par les conflits armés contemporains (XXXIe Conférence internationale de la Croix-Rouge et du Croissant-Rouge, Genève du 28 novembre au 1er décembre 2011). • “Une arme inhumaine : Les arguments contre les robots tueurs” (Novembre 2012, Human Rights Watch). • Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns (Assemblée Générale du Conseil des droits de l’homme des Nations Unies, 9 avril 2013).

Documents joints

Facebook
Twitter
LinkedIn
Print
Email

Dans l'actualité

Restez informé·e·s

Inscrivez-vous à notre newsletter en ligne et recevez une information mensuelle complète.

Engagez-vous à nos côtés !

Nos actus péda dans votre boîte mail ?

Remplissez ce formulaire pour être tenu·e au courant de nos actualités pédagogiques (formations, outils pédagogiques etc.)

Veuillez activer JavaScript dans votre navigateur pour remplir ce formulaire.
Prénom - Nom