Drohne des Typs Heron TP
Drohne des Typs Heron TP Bild © picture-alliance/dpa

Auf den Schlachtfeldern der Zukunft könnten nicht mehr Menschen, sondern Algorithmen Entscheidungen über Leben und Tod treffen. Das wirft grundsätzliche ethische Fragen auf. Darüber beraten seit Montag Experten und Diplomaten auf einer UN-Tagung in Genf.

Kampfdrohnen, die ihre Ziele selbst auswählen, unbemannte Panzer und Kriegsschiffe, Kampfroboter: Die Entwicklung bei autonomen Waffen geht rasant voran. Auf den Schlachtfeldern der Zukunft könnten nicht mehr Menschen, sondern Algorithmen Entscheidungen über Leben und Tod treffen. Die Maschine kennt keine Rache, wird nicht müde, macht keine Fehler. Kollateralschäden werden weitgehend verhindert, schwärmen Befürworter. Schon jetzt identifzieren sie Ziele oder entschärfen Sprengsätze.  Ein neues Wettrüsten ist längst im Gange.

Interessen gehen weit auseinander

Kritiker warnen, tödliche Entscheidungen könnten dank Künstlicher Intelligenz "outgesourced" werden. Das wirft auch grundlegende ethische Fragen auf: Darf eine Maschine ohne "Befehl" eines Menschen über Leben und Tod entscheiden? Völkerrechtlich ist das mindestens problematisch, denn solche Waffensysteme untergraben die Genfer Konvention.

Thomas Küchenmeister, geschäftsführender Vorstand der Nichtregierungsorganisation Facing Finance, sagt, der Mensch sollte eine Tötungsentscheidung nicht an Maschinen übertragen. Es verstoße gegen die Grundpfeiler des Völkerrechts, denn es gebe keine saubere Unterscheidung zwischen gut und böse. "Eine Maschine versteht Kontext nicht, eine Maschine kann keine Reue zeigen. Das alles ist ein viel zu großes Risiko, um solche Maschinen dann künftig Kriege führen zu lassen", sagt Küchenmeister.

Weitere Informationen

Von Montag an treffen sich am UNO-Sitz in Genf internationale Experten und Diplomaten, um über die Entwicklung der tödlichen, autonomen Waffensysteme (Lethal Autonomous Weapon Systems, LAWS) zu beraten. Welche Anwendungen Künstlicher Intelligenz im militärischen Bereich sollen in Zukunft akzeptabel sein und welche nicht? Es geht um Verbote, Verpflichtungen und internationale Regeln im Rahmen der "Konvention über bestimmte konventionelle Waffen" (CCW).

Ende der weiteren Informationen

Paul Scharre hat für das amerikanische Verteidigungsministerium gearbeitet. Er forscht jetzt in der Denkfabrik Center for a New American Security und hat gerade ein Buch zum Thema veröffentlicht. Er hat einen etwas anderen Blick auf autonome Waffensysteme und behandelt die Frage, wie Armeen diese Technologie auf eine Weise verwenden können, die sogar hilfreich sein könnte. Denn autonome Systeme sind oft kostengünstiger. Scharre argumentiert, dass solche Waffen auch präziser eingesetzt werden könnten und so die Zahl ziviler Opfer reduziert werde.

Zahlreiche Länder innerhalb der Vereinten Nationen wollen autonome Waffen bannen oder gar verbieten. Doch die Interessen gehen weit auseinander. Und so fallen auch die Positionen, was autonome Waffensysteme sind, weit auseinander. Das dürfte bei den Gesprächen der Experten vom Montag an in Genf erneut deutlich werden.

Wie steht die Bundesregierung zu Autonomen Waffensystemen?

Im Koalitionsvertrag der Bundesregierung steht, dass Union und SPD diese Waffen ächten wollen. Bundesaußenminister Heiko Maas (SPD) sagte in einer Rede Ende Juni in Berlin, dass uns die rasante Entwicklung künstlicher Intelligenz und ihre Nutzung in Waffen vor völlig neue, auch ethisch hochproblematische Herausforderungen stelle. "Vollautonome Waffensysteme, Tötungsmaschinen, die außerhalb menschlicher Kontrolle agieren, all das muss verhindert werden", sagte er.

Die Linkspartei wirft der Bundesregierung vor, innenpolitisch den Eindruck zu erwecken, autonome Waffensysteme ächten zu wollen. Der Abgeordnete der Linkspartei Andrej Hunko sagt dazu: "In Wirklichkeit setzt sich die Bundesregierung auf internationaler Ebene aber dafür ein, dass autonome Waffensysteme möglich sind, wenn irgendwo ein Mensch sozusagen im System ist, der die letztendliche Entscheidung über tödliche Gewalt hat."

Der Bundestag hat gerade erst beschlossen, Drohnen anzuschaffen, die bewaffnungsfähig sein sollen. Sollte diese Fluggeräte mit Waffen ausgestattet werden, würde der Pilot, der fernab des Einsatzgebietes das Fluggerät steuert, die Entscheidung über den Waffeneinsatz fällen.

Sendung: hr-iNFO, 27.8.2018, 9.10 Uhr

Jetzt im Programm