«Drohnen verringern die politischen Kosten eines Krieges»
Mit autonomen Panzern, Drohnen oder Robotern wollen Armeen ihre Truppen schonen. Doch die Geräte sind nicht so intelligent, wie es oft heisst, sagt Konfliktforscherin Ingvild Bode. Und ihr Einsatz ist völkerrechtlich kaum geregelt.
Ein Interview von Adrienne Fichter, 08.12.2021
Waffen, die selbstständig denken und ihre Angriffsziele finden: Das gibt es nicht erst seit der US-Intervention in Afghanistan, wo zahlreiche Zivilistinnen durch Drohnenangriffe ums Leben kamen, sondern seit vielen Jahrzehnten.
Militärroboter, Unterwasserdrohnen, Kampfflugzeuge, Flugabwehrsysteme, automatisierte Panzer: Wie weit dürfen diese Maschinen von sich aus gehen? Braucht es Schranken für die künstliche Intelligenz? Und welche Rolle kommt dem Menschen beim Einsatz solcher Waffensysteme zu?
Darüber verhandeln seit dem 2. Dezember die Mitglieder einer Gruppe von Regierungsexpertinnen (Governmental Group of Experts GGE) des Uno-Waffenübereinkommens. Sie treffen sich regelmässig in Genf, um die Regulierung dieser sogenannten autonomen Waffensysteme – kurz: AWS – zu diskutieren. Dabei geht es unter anderem um eine Grundsatzfrage: Braucht es internationale Abkommen für die Regulierung von Killerdrohnen und ähnlichen Waffen?
Ingvild Bode, Professorin für Internationale Beziehungen an der Universität von Süddänemark, sagt: Ja, unbedingt. Auch weil diese autonomen Waffensysteme fehleranfällig seien. Und nicht so intelligent, wie deren Hersteller behaupten.
Frau Bode, Sie behaupten, der Afghanistan-Krieg habe nur deshalb so lange gedauert, weil Drohnen zum Einsatz kamen. Warum?
Drohnen sind eine asymmetrische, aus Sicht der Anwender blutlose Form der Kriegsführung. Ein Teil des Militärs kann aus der Ferne agieren. Weniger Soldatinnen sind in Gefahr, weniger Soldaten sterben. Das verringert die politischen Kosten eines Krieges. Die US-Regierung konnte es sich deshalb leisten, militärisch über eine sehr lange Zeit in Afghanistan aktiv zu sein.
Organisationen wie das Internationale Rote Kreuz kritisieren, dass Drohnen die Kriegsführung «entmenschlichen»: Opfer werden zu Datenpunkten, Soldaten zu passiven Supervisoren einer Maschine.
Genau deshalb ist die Debatte über autonome Waffensysteme so wichtig. Denn völkerrechtlich gesehen gibt es erschreckend wenig Vorgaben dazu. Es gelten zwar verschiedene Prinzipien, an die sich Staaten halten müssen – etwa dass Waffen verhältnismässig eingesetzt werden müssen und Zivilistinnen in einem Konflikt nicht getötet werden dürfen. Was fehlt, ist eine Regel über den Einsatz von künstlicher Intelligenz: Gewaltanwendung darf nicht alleine von Robotern ausgehen.
Ingvild Bode ist Professorin für internationale Beziehungen an der Universität von Süddänemark. Sie leitet auch ein Forschungsprojekt über autonome Waffensysteme und internationale Normen. Ihr Hauptinteresse gilt der Analyse von Prozessen des politischen und normativen Wandels, insbesondere in den Bereichen künstliche Intelligenz, Waffen, Anwendung von Gewalt, der Friedenssicherung durch die Vereinten Nationen und der allgemeinen Dynamik des Uno-Sicherheitsrats.
Bei Militärrobotern denken viele an «Terminator». Laut dem Robotik-Professor Noel Sharkey sind heutige autonome Waffensysteme aber näher bei einer Waschmaschine.
Es ist ein Irrtum, dass künstliche Intelligenz der menschlichen Intelligenz überlegen ist. Von ihrer Logik her funktionieren gegenwärtige autonome Waffensysteme ähnlich wie Staubsaugerroboter: Sensoren geben einen Input, das System führt basierend darauf eine vordefinierte Regel aus. Statt von «autonomen Waffensystemen» sollte man deshalb besser von «Waffensystemen mit autonomen Eigenschaften» sprechen. Das wäre präziser, denn die meisten dieser Systeme sind nicht wirklich intelligent.
Aber trotzdem töten sie.
Theoretisch können Waffensysteme bereits heute ohne jegliche menschliche Intervention Operationen ausführen. So setzt Südkorea in der demilitarisierten Zone etwa einen Roboter mit der Bezeichnung SGR A1 ein. Er wäre fähig, menschliche Ziele dank Sensoren eigenständig auszuwählen und zu schiessen. Ob ein Mensch dazwischengeschaltet wird, ist unklar.
Wie intelligent sind die autonomen Waffensysteme, die in Afghanistan oder im Nahen Osten zur Anwendung kommen?
Aktuell im Einsatz sind nur automatisierte, vorprogrammierte Waffensysteme. Waffen, die mit Machine-Learning-Algorithmen operieren, und dabei ihre eigenen Zielprofile definieren, werden erst noch entwickelt.
Wo steht die Forschung?
Die Perdix-Drohnen des US-Herstellers Modern Technology Solutions sollen nach Angaben der Firma als Kollektiv «lernen». Diese Drohnen operieren im Schwarm, analog zu Vogelschwärmen. Doch das ist die Ausnahme: Die meisten Drohnen spulen zurzeit immer noch vorprogrammierte Abläufe ab.
Wie präzis werden diese Abläufe eingehalten?
Es passieren oft Fehler. Ein Grund ist die Bildqualität: In Hollywoodfilmen wird stets suggeriert, dass die Bediener einer Drohne Auflösungen in HD-Qualität erhalten – sie erkennen die Gesichtszüge des Angriffsziels. Doch das ist eine Illusion. Die übermittelten Bilder sind verrauscht und pixelig: Es wird knapp erkennbar, ob es sich um eine Person oder um ein Gebäude handelt. Eine weitere Fehlerquelle sind die Metadaten.
Also die Art und Weise, wie eine Terroristin als Angriffsziel erkannt wird?
Genau. Man versucht, Ziele anhand von Daten zu eruieren: Wie bewegt sich ein mögliches Angriffsziel im Alltag, was sind die Muster, die typisch für Terroristen sind? Solche Messungen und Analysen sind natürlich fehleranfällig. Es gab einen bekannten Fall, der vom Magazin «Intercept» aufgedeckt worden ist: Ein Al-Jazeera-Journalist, der aufgrund eines Interviews Kontakt zu al-Qaida hatte, wurde als Terrorist klassifiziert. Und zwar einfach aufgrund seines Bewegungsmusters in Afghanistan. Bei einem weiteren Fall – ein US-Drohnenangriff im Oktober 2020 in Kabul – wurde die Zielperson verwechselt: Sie arbeitete für die Militärorganisation, die von den USA unterstützt wird.
Warum passieren solche Fehler?
Oft sind die Daten selbst nicht akkurat. Einmal wurde zum Beispiel eine SIM-Karten-Nummer lokalisiert, die früher im Besitz eines Terroristen war. Ist dies zwei Jahre später immer noch der Fall? Das wurde nie überprüft. Einmal im System drin, bleibt die SIM-Karte vorhanden als Zielprofil, selbst wenn sie inzwischen von jemand völlig anderem benutzt wird.
Und diese Person wird dann zum Abschuss freigegeben?
Bevor der Abschuss erfolgt, überprüfen Menschen die Entscheidung des autonomen Waffensystems typischerweise noch einmal. Der Soldat hat also ein Vetorecht. Dieses Prinzip ist zum Glück von den meisten Staaten bisher nicht bestritten worden. Die explizite rechtliche Verankerung des Konzepts vom human in the loop ist jedoch in mehrfacher Hinsicht umstritten. Denn zum einen wollen das Staaten wie die USA so minimal wie möglich halten. Und zum andern zeigt auch die unabhängige Forschung, wie oft dieses Konzept nicht wirklich gut funktioniert.
Warum funktioniert es nicht gut?
Ein Faktor ist der Zeitdruck. Stellen Sie sich vor, ein Flugzeug taucht unerwartet auf dem Radar auf. Vielleicht handelt es sich um einen Kampfjet, der gerade in den Luftraum eindringt. Vielleicht aber auch um ein ziviles Flugzeug, das seinen Kurs korrigieren musste oder bei dem es eine Änderung im Flugplan gab. Ein autonomes Waffensystem identifiziert dieses Flugzeug nun als potenzielles Ziel. Und nun muss ein menschlicher Überwacher innerhalb von sehr kurzer Zeit entscheiden, was zu tun ist.
Mit teils fatalen Folgen, wie etwa im Januar 2020 im Iran.
Das russische Flugabwehrsystem Tor M1, das in Iran eingesetzt wird, hat damals ein Flugzeug der Ukraine Airlines mit einem Militärobjekt verwechselt und zwei Raketen abgefeuert. Die Bediener hatten 10 Sekunden Zeit, um die Daten zu interpretieren – sie entschieden sich für den Abschuss. Alle 176 Passagiere an Bord starben. Hier handelte es sich um ein normales Flugzeug, die Reichweite des Flugabwehrsystems war sehr gering, deshalb war das Veto-Zeitfenster sehr kurz. Der Vorfall wurde im Nachhinein als «menschlicher Fehler» dargestellt: Die Bediener seien nicht angemessen ausgebildet gewesen. Doch diese Interpretation ist fragwürdig.
Warum?
Wo menschliche auf künstliche Intelligenz trifft, tauchen zwangsläufig Probleme auf. Idealerweise sollen Maschinen die Arbeit von Menschen einfacher machen: Arbeitskräfte sollen weniger kognitive Last tragen. Doch dann kommt der Moment, in dem sie plötzlich von passiven Supervisoren zu aktiven Handelnden werden müssen. Dieser Wechsel ist kaum zu bewältigen. Es kommt zum so genannten «Automation bias»: Menschen trauen sich nicht, in solchen Situationen der Maschine zu widersprechen. Dieser Bias ist auch aus der Forschung mit Autopiloten in der zivilen Luftfahrt bekannt.
John Hawley, ein Forscher aus den USA, hat es so formuliert: «23 Stunden und 59 Minuten Langeweile, gefolgt von einer Minute Panik.»
Wir alle kennen das: Es gibt repetitive Tätigkeiten in unseren Berufen, wir scrollen passiv durch den Informationsstrom und plötzlich passiert etwas, was unsere höchste Aufmerksamkeit erfordert und wo wir uns aktiv einbringen müssen. Das ist nichts Unübliches, doch im Krieg steht dabei viel auf dem Spiel – ein Fehler ist gleichbedeutend mit einem Todesurteil. Die Bedienerinnen haben eine kognitive Distanz zum Geschehen vor Ort.
Wie lassen sich solche Fehler vermeiden?
Als das Flugabwehrsystem US-Patriot irrtümlicherweise einen britischen und einen amerikanischen Kampfjet abschoss (beim Einmarsch in den Irak 2003, Red.), schlug der von Ihnen erwähnte John Hawley Reformen vor: Das Trainingssystem müsste verbessert und die Abläufe zwischen Maschine und Mensch optimiert werden. Man könnte die Bediener zum Beispiel darauf vorbereiten, an den Entscheidungen des Systems genügend zu zweifeln. Doch die Vorschläge wurden nicht umgesetzt.
Eine Umfrage bei 8000 australischen Militärkadetten hat gezeigt, dass Soldaten grosses Unbehagen gegenüber autonomen Waffensystemen empfinden. Warum gibt es nicht mehr solche Studien?
Militärs forschen zu diesen Fragen schon, aber Zivilforscherinnen wie ich haben keinen Zugang dazu. Bei dem australischen Projekt hat die Armee mit einer Universität zusammengearbeitet. Das ist die Ausnahme: Viele Militärs haben kein Interesse daran, dass diese Forschung publik wird. Denn die Ergebnisse sind politisch schwer zu ignorieren. Auch diese australische Forschungspartnerschaft gibt es mittlerweile nicht mehr.
Forschungsarbeiten von NGOs zeigen aber auch, dass man gewisse Dinge technisch justieren kann. Etwa die Benutzeroberfläche oder die Vorkonfiguration: Über einer stark bevölkerten Umgebung ist kein Abschuss möglich.
Richtig. Man kann auch Parameter einschränken, etwa dass Angriffsziele immer nur Objekte sein dürfen, aber keine Menschen. Oder man kann die Umgebung beeinflussen und etwa Warnschilder anbringen so wie bei Landminen, einem der ältesten autonomen Waffensysteme überhaupt. Man kann autonome Waffen auch so einstellen, dass sie zum Beispiel nur eine Stunde am Tag aktiv sein sollen. Solche Vorkehrungen sind zu begrüssen, weil sie zur Sicherheit beitragen. Doch man darf nicht dem Glauben verfallen, dass sich alle Probleme durch Technik lösen lassen. Dieser technische Solutionismus ist eine sehr spekulative Aussicht auf die Zukunft. Und sie widerspiegelt oft die Position der USA: Kollateralschäden oder Probleme mit autonomen Waffen gebe es nur wegen des «heutigen Stands der Technik».
Wie stichhaltig ist dieses Narrativ der unaufhaltsamen technischen Entwicklung: Killerdrohnen sind die Zukunft – take it or leave it?
Es gibt keinen «natürlichen Lauf» der Dinge bei solchen Killertechnologien: Alles ist politisch verhandelbar. Unterlässt man dies, so führt das zu einer Aufrüstungsspirale. Der Westen behauptet: Russland und China machen dies und darum müssen wir das auch tun. Quasi als ob es sich hier um eine Entwicklung handelt, der man nicht widerstehen kann. Das ist fatal.
Was erwarten Sie von den Gesprächen in Genf?
Die Staaten diskutieren seit dem 2. Dezember darüber, ob sie weiter über autonome Waffensysteme diskutieren sollen. Das ist löblich, aber nicht genug. Die nächste Aufgabe wäre, eine Art von Regulierung zu schaffen.
Ich will es genauer wissen: Was wird in Genf verhandelt?
Seit Anfang Dezember debattiert eine Gruppe von Regierungsexpertinnen (Governmental Group of Experts GGE) des Uno-Waffenübereinkommens darüber, ob Verhandlungen über einen neuen Vertrag zum Schutz vor Gefahren, die von autonomen Waffensystemen ausgehen, fortgesetzt werden sollen. Die Schlussentscheidung dazu wird dann vom 13. bis 17. Dezember an der Convention on Conventional Weapons CCW gefällt.
An der Konferenz von 2019 einigten sich die Staaten darauf, dass die Mensch-Maschine-Interaktion bei einem Angriff genau geklärt werden müsse. China, Israel, Russland, Südkorea oder auch die USA nehmen aber eine diffuse Position ein: Einerseits wollen sie die Regulierung angehen, andererseits wehren sie sich gegen neue völkerrechtliche Regeln. Zudem haben sie sehr unterschiedliche Vorstellungen davon, was Autonomie und Automatisierung bei Waffensystemen überhaupt bedeutet.
180 NGOs aus 66 Staaten (die Schweiz ist mit der GSoA vertreten) kämpfen mit der Kampagne «Stop Killer Robots» für eine Regulierung von autonomen Waffensystemen. Die Initiative war auch für den Friedensnobelpreis nominiert. 33 Staaten, darunter die Schweiz, haben in den jährlichen Genfer CCW-Meetings bereits ethische Bedenken gegenüber dem Einsatz von autonomen Waffensystemen vorgebracht.
Wie stehen die Chancen der Gespräche?
Hier wird es schwierig. Kein Staat sagt, menschliche Kontrolle brauche es nicht. Aber alle Staaten haben unterschiedliche Vorstellungen davon, wie die Qualität dieser menschlichen Kontrolle aussehen soll.
Befürworter von autonomen Waffensystemen sind etwa die USA und Australien. Sie sagen, autonome Waffensysteme würden die Intention eines Kommandanten mit «chirurgischer Präzision» ausführen und seien deshalb effizient.
Autonome Waffensysteme als «Verlängerung des menschlichen Gehirns» zu sehen – als Instrument, das man als Mensch einfach nutzen kann, um Ziele präziser zu erfassen – greift zu kurz. Denn die Interaktion von Mensch und Maschine ist von vielen Fehlern begleitet, wie wir bereits besprochen haben. Es braucht neben den völkerrechtlichen Regeln – der Mensch muss stets die Kontrolle über die Gewaltanwendung bewahren – deshalb auch technische und prozedurale Normen dazu, wie solche Waffen angewendet werden.
Genügt es nicht, rechtlich festzulegen, dass der Mensch auf jeden Fall verantwortlich ist für die Folgen des von ihm eingesetzten Kriegsgeräts?
Sicher: Im Völkerrecht muss schwarz auf weiss stehen, dass menschliche Kontrolle und menschliche Beteiligung beim Einsatz von autonomen Waffensystemen zwingend sind. Doch darüber hinaus braucht es auch Bestimmungen darüber, wie diese Kontrolle genau aussehen und mit ethischen Bedingungen umgeben werden soll. Man könnte etwa definieren: Menschen dürfen nicht als Angriffsziel programmiert werden, nur Objekte.
Werden sich die Staaten jemals auf so etwas einigen?
Kaum. Bei dieser Konferenz wird im Konsens entschieden. Doch Länder wie die USA, Grossbritannien, Australien, Japan und Russland sagen alle: Wir brauchen kein neues Völkerrecht.
Sie wollen einfach nur weiterdebattieren?
Ja, das ist nämlich das Bequemste. Allerdings muss man auch sagen: In den vergangenen vier bis fünf Jahren gab es durchaus Fortschritte. Viele Staaten machen sich produktive Gedanken über autonome Waffensysteme.
Welche Staaten sind das?
In der Europäischen Union vor allem Belgien und Österreich. Aber viel relevanter ist der globale Süden: Chile, Brasilien, Mexiko, Peru und die Philippinen setzen sich seit Jahren für ein neues Völkerrecht ein. Es kommt hier zu einer Partnerschaft mit der Zivilgesellschaft, was bemerkenswert ist. Normalerweise ist es umgekehrt, die Zivilgesellschaft hat engere Partnerschaften mit dem Westen.
Wie erklärt sich das?
Viele Industrieländer sind stark an der Entwicklung von autonomen Waffensystemen interessiert. Deshalb sind sie nicht bereit, sich kritisch zu äussern. Viele Staaten des globalen Südens haben dagegen eine Historie der Intervention. Es war auffällig, wie sich etwa Pakistan in der Frühphase der Gespräche gegen den Einsatz von Drohnen ausgesprochen hat.
Auch Europa ist als Zulieferer an autonomen Waffensystemen beteiligt. Etwa der US-Stützpunkt Ramstein in Deutschland, der mit Glasfaserkabeln das Netzwerk für den Einsatz dieser Waffen ermöglicht.
In Genf ist das kein Thema. Die dortige Debatte ist zwar sehr wichtig, doch sie hat teilweise bizarren Zukunftscharakter. Es wird stark vom heutigen Geschehen abgegrenzt – man tut so, als ob autonome Waffensysteme ein Problem der Zukunft seien. Dabei sind sie schon längst im Einsatz. Es wäre wünschenswert, dass dies auch im politischen Diskurs ankommen würde.