/Verhandlungen über Killerroboter in Genf

Verhandlungen über Killerroboter in Genf

Verhandlungen über Killerroboter in Genf

(Bild: pixabay.com)

Am Sitz der Vereinten Nationen in Genf wurde diese Woche ein Thema diskutiert, das sich für große Teile der Öffentlichkeit nach wie vor wie Science-Fiction anhört: tödliche autonome Waffensysteme oder Killerroboter.

“Tödliche autonome Waffensysteme” (lethal autonomous weapons systems, LAWS) oder “Killerroboter” sind Waffensysteme, die nach der Aktivierung ohne weitere menschliche Einwirkung Ziele erfassen und bekämpfen könnten. Der potenzielle Einsatz dieser Waffensysteme wirft eine ganze Reihe an fundamentalen rechtlichen, ethischen und sicherheitspolitischen Fragen auf, über die bei den Vereinten Nationen in Genf diese Woche disktuiert worden ist: Könnten Killerroboter überhaupt jemals völkerrechtlich konform eingesetzt werden? Verletzt die Delegation der Tötungsentscheidung an Maschinen grundlegende Menschenrechte, wie beispielsweise die Menschenwürde? Verringert der potenzielle Einsatz von LAWS die Schwelle zur Gewaltanwendung, macht also den Einsatz militärischer Gewalt “billiger” und einfacher?

Das Thema LAWS wird schon seit 2014 informell bei den Vereinten Nationen diskutiert, aber vom 13. bis 17. November 2017 haben sich Regierungsvertreter zum ersten Mal in einem formellen Rahmen als Expertengruppe innerhalb der CCWUN zusammengefunden. Diese Entwicklung ist insbesondere auf das Engagement der Zivilgesellschaft zurückzuführen: Die 2013 gegründete Campaign to Stop Killer Robots, eine Koalition unterschiedlicher Nichtregierungsorganisationen, wie zum Beispiel Human Rights Watch, setzt sich für ein präventives Verbot solcher Systeme ein.

Bisher sind 21 Staaten, darunter Argentinien, Irak, Pakistan, Peru und Uganda diesem Appell gefolgt. Ein breiter Konsens für ein Verbot hat sich in der Debatte jedoch noch nicht abgezeichnet. Eine zunehmende Anzahl von Staaten haben sich aber für eine neue rechtliche Regulierung ausgesprochen. Trotzdem besteht noch keine Einigkeit darüber, wie sich die Staatengemeinschaft in Zukunft dem Thema widmen soll. Nicht zuletzt haben sich diejenigen Staaten, die am weitesten mit der Entwicklung von autonomeren Waffensystemen vorangeschritten sind, wie etwa die Vereinigten Staaten, China, und Russland nicht für eine neue rechtliche Regulierung solcher Systeme ausgesprochen.

Die Verhandlungen in Genf werden durch die technische Komplexität und den wandelnden Entwicklungsstand von LAWS verlangsamt. Um sich dem Thema systematisch anzunähern, hat der Vorsitzende der diesjährigen Debatte wieder eine große Anzahl Experten insbesondere aus den Bereichen Künstliche Intelligenz, Völkerrecht und Sicherheitspolitik eingeladen. Dieses Vorgehen wird teilweise kritisch gesehen: Immerhin diskutieren Regierungsvertreter schon seit 2014 über das Thema und grundlegende Fragen wurden bereits behandelt. Einige Vertreter hatten sich von der diesjährigen Diskussion eine sehr viel konkretere zwischenstaatliche Auseinandersetzung und weitere Schritte erhofft. Dennoch sind die Verhandlungen der Regierungsvertreter nach wie vor von Unsicherheit im Bezug auf wesentliche Aspekte gekennzeichnet, wie beispielsweise welche Merkmale tödliche autonome Waffensystems genau auszeichnen und ob Waffen mit solchen Charakteristiken bereits existieren oder jemals existieren werden.

Während sich die Diskussion über eine mögliche Regulierung auf der politischen Ebene nur langsam bewegt, schreitet die technologische Entwicklung schnell voran. In der öffentlichen Debatte wird der gegenwärtige Entwicklungsstand zunehmend autonomer Waffensysteme oftmals unterschätzt. Gleichzeitig werden die Entwicklungsmöglichkeiten “intelligenter” autonomer Waffensystem in der näheren Zukunft deutlich überschätzt. Die öffentliche Vorstellung von Killerrobotern bleibt eng mit dem Bild des “Terminators” verbunden.

Es ist aber fraglich, ob Militärs an der Entwicklung und dem Einsatz von LAWS, die ohne menschliche Beteiligung Entscheidungen treffen können, interessiert sind. Solche Systeme könnten grundlegenden militärischen Anforderungen an Kontrolle und Erwartungssicherheit nicht entsprechen. Es ist dabei hilfreich, sich die fortschreitende Entwicklung von Autonomie als ein Kontrollspektrum vorzustellen, auf dem sich Menschen immer weiter von der Tötungsentscheidung entfernen. Systeme, wie etwa der mit einem Maschinengewehr und Sensoren ausgestattete SGR-A1 Wachposten-Roboter (sentry gun), wurden bereits von Süd-Korea an der Entmilitarisierten Zone eingesetzt. Der SGR-A1 wird grundsätzlich von einem Menschen ferngesteuert, verfügt aber über die technischen Möglichkeiten auch autonom zu funktionieren. Auch die nächste Generation von Drohnen wird über deutlich weiter reichende autonome Fähigkeiten verfügen. Ein Beispiel ist hier die von Großbritannien entwickelte Kampfdrohne Taranis, die Medienberichten zufolge eigenständig nach möglichen Zielen suchen kann. Experten sind sich darüber einig, dass solche Systeme in nächster Zukunft eingesetzt werden. Die Entwicklung wird dabei häufig mit der zukünftigen Verbreitung selbstfahrender Autos verglichen, die vermutlich im Jahr 2025 flächendeckend eingesetzt werden.

Einige Staaten, wie etwa die Schweiz, haben in Genf die Betrachtung gegenwärtiger Waffensysteme hervorgehoben, um eine möglichst konkrete Diskussion zu ermöglichen. Dieses betrifft insbesondere die Frage, wie die Interaktion von Mensch und Maschine in Zukunft geregelt werden soll. Es hat sich Einigkeit darüber abgezeichnet, dass Maschinen immer menschlicher Kontrolle unterworfen sein sollen. Dieses gilt insbesondere für kritische Funktionen von Waffensystemen, also solche die sich auf die Zielauswahl und -bekämpfung beziehen. Wie genau menschliche Kontrolle ausgestaltet werden soll, bleibt dabei aber noch offen und lässt so Raum für verschiedenste Vorstellungen. In ihrem Abschlussbericht haben die Regierungsvertreter in Genf beschlossen, sich bei der Fortführung der Debatte im kommenden Jahr insbesondere mit den Charakteristika von Autonomie und der Interaktion von Mensch und Maschine zu beschäftigen.

Letztendlich stehen die folgenden Fragen im Zentrum der laufenden Debatte: Wie verändert die zunehmende Autonomie von Waffensystemen menschliche Entscheidungen in der Anwendung militärischer Gewalt? Wann sind Menschen so wenig in die Zielauswahl und -bekämpfung eingebunden, dass wir es als problematisch ansehen? Die Beantwortung dieser Fragen erfordert eine breitere gesellschaftliche Auseinandersetzung, die auch Regierungsvertretern dabei helfen könnte, rote Linien zu ziehen. Unabhängig vom Stand der technologischen Entwicklung könnte so eine Einigung darüber möglich sein, was die internationale Staatengemeinschaft nicht will: den Verlust menschlicher Kontrolle über die Entscheidung von Leben und Tod.
(Ingvild Bode) /


(ps)