Waffen ohne menschliche Kontrolle

Der Aufstieg der Maschinen

Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele treffen?

Killerroboter aus der Zukunft: Der „Terminator“ sieht nur aus wie ein Mensch. Bild: dpa

BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“ installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das intelligente System lernt schnell, viel zu schnell. Als die Bediener des Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der intelligente Roboter aus der Zukunft den künftigen Anführer der menschlichen Widerstandsbewegung zu ermorden versuchen.

Während rebellierende Maschinen und intelligente Computer noch weit entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von 20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt eine Studie der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19. November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu sein.

Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA, die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben. Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag mehrerer europäischer Länder das unbemannte Kampfflugzeug „Neuron“.

Es fliegt eigenständig, ohne menschlichen Eingriff und muss das auch können, denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen Linien fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten“, sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger Mensch.

Im Zweifel mit dem Computer

Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr, das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind“.

SGR 1 (Südkorea): Der Militärroboter von Samsung ist ein Wachturm, der an der Grenze zu Nordkorea eingesetzt wird. Mithilfe von Hitze- und Bewegungssensoren kann er Ziele erfassen und verfolgen, die bis zu vier Kilometer entfernt sind. Warnungen werden an die Zentrale weitergeleitet, und Menschen entscheiden dann gegebenenfalls über einen Schießbefehl.

Guardium (Israel): Der ferngesteuerte bewaffnete Panzer von G-NIUS wird vom israelischen Militär an der Grenze zum Gazastreifen verwendet. Er kann eigenständig fahren und arbeitet mit Wärmekameras, um Menschen identifizieren zu können. Die Daten werden an eine Zentrale weitergegeben, wo Soldaten auch die direkte Kontrolle über den Panzer übernehmen können.

X-47-B (USA): Die unbemannte Kampfdrohne von Northrop Grumman fliegt eigenständig vorprogrammierte Missionen und braucht nur von einem Bediener überwacht zu werden. In diesem Jahr wurde sie bereits mehrmals getestet, 2013 soll sie eine eigenständige Landung auf einem Flugzeugträger absolvieren, eines der schwierigsten Manöver der Luftfahrt. Sie ist vorerst nur für unbewaffnete Missionen vorgesehen, soll aber bis zu 2 Tonnen Waffen tragen können.

Schwarm unbemannter Flugkörper (USA): In einem Test zeigten die US Marine und Augusta Systems, wie mehrere Drohnen vernetzt agieren und dabei nur einen Bediener brauchen. Die Tests sollten zeigen, wie Personal bei der Bedienung von Drohnen und ferngesteuerten Robotern eingespart werden kann. Auch für die europäische Tarnkappendrohne „Neuron“ könnte eine solche Schwarmtechnologie entwickelt werden. (lrs)

Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die „sinnvollste“ Kanone wird berechnet. Abschuss.

Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde eine zentrale Komponente fehlen: Empathie.

Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer, auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“

Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch benötigt wird, wird ständig getestet. So bereiten Computer an vielen Stellen Entscheidungen für Menschen so weit vor, dass in dringenden Situationen wenig Zeit für eine eigenständige Entscheidung bleibt.

Human Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher dem automatisierten System folgen und dem Angriff zustimmen werden. Die Gefahr besteht, dass die Entscheidung des Computers zur Regel werden könnte. Wenige Tage nach der HRW-Studie veröffentlichte das US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher Waffen und ihre Einsätze regelt.

Kommt ohne menschliche Kontrolle aus: die Tarnkappendrohne „Neuron“. Bild: dpa

„Kein Thema für Deutschland“

Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten, wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem deutschen Verteidigungsministerium heißt es zum Beispiel, autonome Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche Beurteilung. Ganz anders die USA: Eine „Roadmap“ des US-Militärs sieht die Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“.

Die kürzlich erschienene Direktive des US-Verteidigungsministeriums definiert nun aber konkrete Rahmenbedingungen für die Produktion und den Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne einen knopfdrückenden Soldaten wäre also zugelassen.

Doch in einem Halbsatz eröffnet sich der Weg zu autonomen Waffen: Es heißt, wenn semiautonome Systeme, deren Ziele von Menschen vorgegeben werden, den Kontakt zu Bedienern verlieren, könnten sie dennoch bereits definierte Ziele angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne, deren Kommunikation gestört wird, also nicht mehr berücksichtigen müssen.

„Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon auszugehen, dass militärische Kräfte diese Waffen ’ordnungsgemäß‘ oder ’verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der Knackpunkt, um den gestritten wird.

Roboter gegen Roboter

In einer Erwiderung an Kritiker von autonomen Waffen schreibt etwa Jeffrey Thurnher, Major und Professor am Naval War College der USA, dass Kommandeure autonome Waffensysteme in Gegenden einsetzen könnten, wo das Risiko von Kollateralschäden besonders gering ist, etwa unter Wasser, oder in Situationen, in denen feindliche Soldaten einfach zu erkennen sind. Zur Aufstandsbekämpfung seien sie hingegen nicht geeignet. Allerdings könnten sich Roboter in solchen Situationen einem Angriff aussetzen, um Feinde zweifelsfrei zu identifizieren – Menschen wären da schon tot.

Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee der Wahl eines Diktators im Falle einer Rebellion?

Und was passiert, wenn sich autonome Waffen gegenseitig angreifen? „Im schlimmsten Fall könnten durch Missverständnisse in unübersichtlichen Situationen in Krisen sogar Kriege ausgelöst werden“, sagt Jürgen Altmann, Physiker an der TU Dortmund und Mitglied im Internationalen Komitee für die Kontrolle von Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere autonome Waffen leicht ihren Weg in die Hände von Terroristen finden könnten.

Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen. „Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen Terminator“, kommentierte ein Sprecher die neue Direktive.

.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben