L'intelligence artificielle dans le génie militaire – La guerre des robots tueurs

Intelligence Artificielle dans le Génie Militaire

Une image rendue numériquement d’un robot de combat dans une scène de guerre. C’est encore de la science-fiction. Les experts s’attendent à des implications extrêmes alors que la technologie militaire continue d’évoluer vers une IA autonome. © Getty Images / mikkelwilliam

Modération : Annette Riedel 05.06.1920

Les robots tueurs pourraient être très bientôt. L’IA est déjà utilisée militairement aujourd’hui. Les systèmes d’armes entièrement autonomes sont sans émotion, plus rapides et plus précis que les humains – avec des problèmes éthiques, de sécurité et juridiques correspondants.

Si les armes recherchent elles-mêmes leurs cibles et les détruisent et les tuent sans être humain impliqué, cela a des conséquences importantes. Il est vrai que les armes autonomes agissent finalement comme elles ont été programmées par les humains. Mais en cas d’opération, il n’y a plus d’intermédiaire humain qui appuie sur un bouton ou déclenche l’effet destructeur à distance avec le joystick.

Les robots tueurs appartiennent toujours au domaine de la science-fiction. Mais, par exemple, le développement des drones dits « intelligents » a déjà été poussé très loin par plusieurs pays. Les partisans de ces technologies soutiennent qu’avec leur aide dans une situation de guerre, la mort de certaines personnes pourrait être évitée – celle de leurs propres soldats. Mais les civils qui sont tués ou blessés accidentellement aujourd’hui pourraient également être mieux protégés.

KI ne connaît ni haine, ni stress, ni peur

Les systèmes algorithmiques sont déjà utilisés dans de nombreux contextes militaires – par exemple dans les domaines de la logistique et de la reconnaissance. Cependant, si le développement devait se poursuivre vers l’autonomie – c’est-à-dire des missions de combat qui ne sont plus déclenchées et contrôlées par l’homme – cela pourrait avoir des conséquences importantes sur le type de guerre.

Certains parlent d’une révolution militaire uniquement comparable à l’invention de la poudre à canon et des ogives nucléaires.

Les machines n’agissent pas par haine. Vous ne connaissez pas de stress, pas de peur, pas de fatigue. Les armes autonomes ne violent pas, ne pillent pas. Mais ils ne connaissent également aucune empathie, aucune hésitation. Beaucoup y voient un crime contre le droit international si les robots décident de la vie ou de la mort à l’avenir. Ce qui viole également la dignité humaine.

Interdire les armes autonomes

Depuis 2014 les systèmes d’armes autonomes sont discutés au niveau des Nations Unies. Tous les États ne sont pas d’accord sur le rejet. Jusqu’à présent, l’Allemagne a également adopté une attitude plus attentiste. Cependant, le gouvernement fédéral actuel s’est engagé avec son accord de coalition à œuvrer pour une réglementation internationale juridiquement contraignante de ces armes.

Quelles questions éthiques, politiques de sécurité et juridiques se poseraient si les « robots tueurs » devenaient réels? Le développement peut-il encore être stoppé ? Y a-t-il un danger qu’avec l’évolution de cette nouvelle technologie une nouvelle course aux armements menace ?


Silja Vöneky
, (co-)directrice de l’Institut de droit public , Droit international et droit comparé, Université de Fribourg

Thomas Küchenmeister
, de la campagne internationale contre les robots tueurs, professeur émérite de politique et de régulation d’Internet à l’université d’Aarhus


Christian Mölling
,

Recherche Directeur à la Société allemande de politique étrangère et responsable du programme de sécurité et de défense de la DGAP

Frank Sauer, Institut des sciences politiques de l’Université des forces armées fédérales, Munich.

Le programme a été enregistré en coopération avec la Fondation Volkswagen lors d’un événement au château de Herrenhausen.

Articles similaires

Bouton retour en haut de la page