Autonome Waffen: Wer übernimmt die moralische Verantwortung?

In der vergangenen Woche hat die Staatengemeinschaft in Genf über die Zukunft des Krieges debattiert: Im Rahmen der Abrüstungsverhandlungen haben Diplomaten über mögliche internationale Vereinbarungen zu autonomen Waffensystemen geredet – im allgemeinen Sprachgebrauch auch als „Killerroboter“ bekannt und gefürchtet.

Regelmäßig neue Updates aus dem WIRED-Kosmos!

In der vergangenen Woche hat die Staatengemeinschaft in Genf über die Zukunft des Krieges debattiert: Im Rahmen der Abrüstungsverhandlungen haben Diplomaten über mögliche internationale Vereinbarungen zu autonomen Waffensystemen geredet – im allgemeinen Sprachgebrauch auch als „Killerroboter“ bekannt und gefürchtet.

Einer der Redner, der als nichtstaatlicher Vertreter vor den Vereinten Nationen in Genf sprechen durfte, war Paul Scharre, Senior Fellow beim Washingtoner Think-Tank Center for a New American Security (CNAS) und Leiter des dortigen Programms „Technology & National Security“. Scharre schlug in seinem Vortrag vor, statt der Maschinen den Menschen ins Zentrum der Überlegungen zu stellen. Denn der werde sich im Gegensatz zu (Waffen-) Technologien im Grundsatz nie ändern. Wenn alle vorstellbaren Technologien verfügbar wären, fragte Scharre, welche Dinge sollten dann trotzdem weiter allein von Menschen getan werden im Krieg? Und gibt es bestimmte Entscheidungen, die der menschlichen Urteilskraft bedürfen – und warum? Seine eigene Antworten dazu erscheinen demnächst in einem Buch: „Army of None: Autonomous Weapons and the Future of War“ kommt im April 2018 in den USA heraus. Zuvor beschäftigt sich WIRED aber schon mit dem Thema: Das am kommenden Freitag erscheinende Heft enthält einen Bericht zur Zukunft des Krieges.

Wired: Herr Scharre, welche Rolle sollte der Mensch im Krieg noch spielen, wenn ihn autonome Waffensysteme womöglich ablösen auf dem Schlachtfeld – oder gar gegen ihn kämpfen könnten?
Paul Scharre: Eine Antwort auf die Frage nach der künftigen Rollenverteilung zwischen Mensch und Maschine wäre, die Art der Aufgaben bei einem militärischen Einsatz zu unterscheiden. Einerseits existieren Aufgaben, bei denen objektive Richtig-oder-falsch-Entscheidungen gefällt werden müssen: Ist das Objekt dort ein Panzer oder nicht? Trägt diese Person vor mir ein Gewehr oder eine Schaufel – greife ich sie also an oder gerade nicht? Theoretisch sind wir bereits heute in der Lage, Maschinen zu bauen, die diese Fragen eindeutig beantworten können. Bei militärischen Einsätzen werden solche klaren Ja-Nein-Einschätzungen immer wieder gefordert, insofern gibt es einen Use Case für automatisierte oder autonome Technologien, und entsprechende Lösungen werden im Laufe der Zeit mutmaßlich entwickelt werden.

Wired: Und andererseits?
Scharre: Ergeben sich in kriegerischen Auseinandersetzungen immer wieder komplexe Fragestellungen, auf die es keine klaren Antworten gibt. Weil letztere vom Kontext der Geschehnisse abhängen und einer Bewertung bedürfen: Wäre es in einer gegebenen Gefechtssituation sinnvoll und richtig, diese Person dort auszuschalten oder nicht? Militärische Entscheidungen sind immer wieder auch welche, bei denen die Proportionalität des Handelns bedacht werden muss: Gefährdet man durch einen eigentlich notwendigen Angriff auf ein Ziel auch Zivilisten, und zwar womöglich überproportional viele, gemessen am militärischen Nutzen? Auch rein vernunftgesteuerte Menschen können dort in bestimmten Situationen zu völlig entgegengesetzten Aussagen kommen. Und selbst wenn wir eines Tages in der Lage sein könnten, Maschinen zu entwickeln, die solche Abwägungen in ihre Entscheidungsprozesse integrieren könnten – vielleicht wollen wir Menschen die ja gar nicht bauen?

Paul Scharre ist Senior Fellow beim Washingtoner Think-Tank Center for a New American Security (CNAS) und Leiter des dortigen Programms Technology & National Security.

Wired: Warum sollten wir das nicht wollen, wenn die uns das Töten abnehmen könnten?
Scharre: Weil es einen eigenen moralischen Wert darstellt, wenn Entscheidungen über Leben und Tod von Menschen gefällt werden. Und ich meine damit nicht, dass damit zwangsläufig auch rechtlich eine Verantwortlichkeit gegeben ist. Die Fragestellung „Wenn ein Roboter jemanden töten würde, wer trüge dafür juristisch die Verantwortung? Und was wäre gar, wenn der Roboter einen Unfall verursacht?“ klingt zwar neu. Doch tatsächlich gibt es auch heute schon bei Kriegseinsätzen oft Fälle, bei denen ein Fehlverhalten nicht zu klären ist. Manchmal trägt bei einem Unfall einfach niemand Schuld. Das ist schwierig zu ertragen, gerade wenn Menschen ihr Leben verlieren und man niemanden verantwortlich machen kann. Doch das ist kein neues Phänomen.

Wired: Worin besteht also der moralische Wert, den Sie ansprachen?
Schramme: Moralische Verantwortung, das muss man zunächst bedenken, ist nicht im humanitären Völkerrecht geregelt. Aber sie ist eine bedeutsame Größe dabei, die schlimmsten Gewaltexzesse im Krieg zu verhindern: Menschen sind im Gegensatz zu Maschinen stets moralisch verantwortlich für ihr Handeln. Ich finde den Gedanken beunruhigend, wenn wir in der Kriegsführung an einen Punkt kämen, an dem ein Mensch ein robotisches Waffensystem losschicken würde und niemand sich verantwortlich für die Tötungshandlungen dieser Maschine fühlen müsste, selbst wenn sie auf legitime Weise Kombattanten unschädlich machen würde.

Autonome Waffen sind in der Tat sowohl politisch wie konzeptionell eine Herausforderung.

Wired: Was nun aber doch die juristische Frage angeht – könnte es da nicht so sein, dass die Staatengemeinschaft sich irgendwann auf eine Änderung des Völkerrechts und eben die Einbeziehung von Maschinen einigt?
Scharre: Das lässt sich nicht sagen. Wenn Maschinen selbst handeln könnten und im juristischen Sinne verantwortlich würden, wäre das aber nicht nur eine rechtliche Herausforderung.

Wired: Bislang haben sich die an den UN-Verhandlungen beteiligten rund 120 Länder nicht mal auf eine Definition von Autonomie im Bezug auf Waffensysteme einigen können. Ist das ein rein politisches Problem, oder stehen dahinter auch ganz grundsätzliche Fragen, was Autonomie bei Maschinen überhaupt bedeuten könnte?
Scharre: Autonome Waffen sind in der Tat sowohl politisch wie konzeptionell eine Herausforderung. Der politische Aspekt dabei ist folgender: Weil es bereits mit Beginn der ersten VN-Verhandlungen über autonome Waffensysteme im Jahr 2014 die Forderung von einzelnen Akteuren gab, diese Waffen per se zu verbieten, wurde bereits deren Definition zum Streitthema. Jede Verhandlungspartei macht sich Gedanken darüber, was künftig alles unter ein mögliches Verbot fallen oder als illegitim gelten könnte.

Wired: Warum ist Autonomie denn so schwer zu definieren?
Scharre: Weil der Begriff vieles beinhalten könnte. Nimmt man autonomes Autofahren zum Vergleich, sieht man bereits die potenziellen Schwierigkeiten: Zwischen Teslas Autopilotfunktion und dem lenkradlosen Google-Prototyp eines vollautonomen Wagens bestehen riesige Unterschiede. Und sogar das Google Car ist ja nicht so autonom, dass es an gar keine menschliche Vorgaben mehr gebunden wäre – irgendjemand muss ihm immer noch sagen, wohin es überhaupt fahren soll. Wir müssen deshalb über konkrete Funktionen sprechen. Beim Beispiel Auto wären die Fragen: Ist Spurhalten autonomes Handeln, das selbstständige Einstellen der Geschwindigkeit, das Einparken? Auf ähnliche Weise müsste bei den VN-Verhandlungen auch über Autonomie bei Waffensystemen gesprochen werden. Aber soweit sind die Verhandlungspartner bislang noch nicht.

Wired: Vor der aktuellen VN-Konferenz haben Frankreich und Deutschland ein gemeinsames Arbeitspapier veröffentlicht, in dem zwei Dinge für einen künftigen internationalen Vertragsrahmen zu autonomen Waffen vorgeschlagen werden: Transparenz bei deren Entwicklung und später die Verabschiedung von Verhaltensregeln für den Einsatz solcher Waffen. Ist das ein möglicher Weg für den Fall, dass kein grundsätzliches Verbot zustande kommt?
Scharre: Womöglich. Man muss dabei bedenken, dass die sogenannte „Konvention über bestimmte konventionelle Waffen“, in deren Rahmen die Vereinten Nationen in Genf verhandeln, auf Einstimmigkeit basiert. Alle Staaten müssen zustimmen. Daran ist in der Vergangenheit etwa das Verbot von Streubomben gescheitert. Die Wahrscheinlichkeit, dass man nun dort zu einem Verbot von autonomen Waffen kommen wird, ist sehr gering. Bisher sind nur knapp 20 Länder für ein Verbot, rund 100 aber dagegen oder jedenfalls noch nicht dafür. Es gibt bislang auch kein wirkliches Momentum dafür, außerhalb der Strukturen der Vereinten Nationen zu einer Vereinbarung zwischen Staaten zu kommen. Ich halte es aber für möglich, dass es in den kommenden Jahren so etwas wie eine politische Erklärung geben könnte, in der zum Beispiel eben die Rolle des Menschen bei militärischen Entscheidungen im Kriegsfall festgeschrieben werden könnte. Womöglich könnte eine solche Erklärung auch Verhaltensregeln beim Einsatz von autonomen Waffensystemen enthalten.

Wired: Wie vorhersehbar sind eigentlich überhaupt die technologischen Weiterentwicklungen bei diesen Waffen? Sie selbst haben vor einigen Wochen bei einer Konferenz Ihres Think Tanks CNAS zu künstlicher Intelligenz den Alphabet-CEO Eric Schmidt interviewt – und der sagte dort, Befürchtungen wie sie etwa Elon Musk hat zum zukünftigen Einsatz von KI in Waffen seien eher Stoff für Kinofilme.
Scharre: China, Russland, die USA, Großbritannien, Frankreich und Israel arbeiten heute bereits an robotischen Systemen für den Einsatz in der Luft, auf dem Boden und dem Wasser, bei denen der Grad an Automatisierung und Autonomie steigt. Auch bemannte militärische Plattformen wie etwa Kampfflugzeuge oder bewaffnete Fahrzeugen werden zunehmend mit automatisierten Prozesstechnologien ausgestattet. Man muss davon ausgehen, dass diese zunehmend nicht nur für die Fortbewegung solcher Plattformen eingesetzt werden, sondern künftig auch bei Funktionen, die mit deren Bewaffnung zu tun haben.

Wired: Womit wir bei der Autonomie angekommen sind.
Scharre: Keines der angesprochen Länder hat bislang angekündigt, vollautonome Waffensysteme entwickeln zu wollen, die ohne menschliche Aufsicht operieren und selbstständig ihre Zielen suchen könnten. Doch die Technologien dafür werden zur Verfügung stehen, da gibt es wenig Zweifel. Raketenabwehrsysteme etwa sind ja sogar schon seit Jahrzehnten im Einsatz. Die stellen letztlich bereits ein autonomes Waffensystem dar, das allerdings in einem sehr eingeschränkten Kontext operiert: Die Abwehrraketen werden von Menschen überwacht, die das System jederzeit abschalten können etwa im Fall einer Fehlfunktion, und das sind rein defensive Waffen, die Schiffe oder Basen vor feindlichen Angriffen schützen. Die Abwehrraketen zielen auf heranfliegende Objekte, nicht auf Menschen.