Zum Hauptinhalt springen
Blogbeitrag

Autonome Waffensysteme mit Lizenz zum Töten

„Stop Killer Robots” ist eine Kampagne und ein Motto, das viele Non-governmental Organizations (Nichtstaatliche Organisationen, NGOs) und ein Drittel aller Staaten weltweit unterstützen. Am 2. Dezember trafen sich die Regierungsfachleute des VN-Waffenübereinkommens, um sich über den Einsatz von autonomen Waffensystemen (AWS) auszutauschen. Über 180 NGOs fordern eine starke Regulierung oder gar ein Verbot von AWS, international gehen die Ansichten jedoch auseinander. Während unter anderem Deutschland sich bisher für eine Ächtung solcher Systeme ausgesprochen hat, bremsen Länder wie Russland, China und die USA die Verhandlungen über die angedachte Regulierung (netzpolitik.org).

Unter AWS versteht man Waffensysteme, die ohne menschlichen Eingriff ihre Ziele finden und angreifen bzw. vernichten. Sie können überall auf der Welt genutzt werden: in der Luft, auf dem Land und auch unter Wasser. Insbesondere zur Zielidentifikation werden zumeist Methoden maschinellen Lernens genutzt.

Doch wie steht Deutschland auf politischer Ebene dem Einsatz von AWS gegenüber?

Am ersten November 2021 wurde ein offener Brief an die neue Bundesregierung adressiert, welcher diese zur Positionierung auffordert und die Festlegung im Koalitionsvertrag verlangt. Dieser Brief wurde von namhaften Wissenschaftlerinnen und Wissenschaftlern aus der KI und der Robotik, darunter auch dem GI-Präsidenten und dem Sprecher des Fachbereiches Künstliche Intelligenz der GI unterschrieben (autonomewaffen.org).

2011 veröffentlichte das Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) einen Bericht zum Stand und den Perspektiven des Einsatzes von unbemannten Systemen im militärischen Kontext (bundestag.de). Da im Laufe der Jahre die Entwicklung von AWS weit vorangeschritten ist, fand im Auftrag des Bundesausschusses für Bildung, Forschung und Technikfolgenabschätzung von 2017 bis 2019 eine neue Technikfolgenabschätzung zu deren Einsatz statt, welche den bestehenden Bericht ergänzen soll. Ziel dieser Arbeitsgruppe war es, sowohl technische Aspekte als auch ethische Fragestellungen und internationale politische Fragen herauszuarbeiten. Außerdem sollten potenzielle Risiken beleuchtet werden. Die Resultate des Projektes wurden im November 2020 dem Bundestag vorgetragen (bundestag.de). Hier erging ein deutliches Signal an die Bundesregierung, dass AWS nicht beherrschbar und vor allem völkerrechtlich fragwürdig sind.

Deutschland hat 2018 im Koalitionsvertrag eine Ächtung von AWS festgelegt (cdu.de). Damals hat man sich jedoch nicht auf ein komplettes Verbot von AWS geeinigt, sondern darauf, dass es noch immer eine menschliche Kontrolle geben sollte und dass die Person, die das AWS bedient oder überwacht, ausreichend geschult sein muss (swp-berlin.de). Wie die Pläne der aktuellen Bundesregierung zum Thema aussehen, ist aus dem aktuellen Stand der Koalitionsverhandlungen noch nicht zu entnehmen. Es gilt also abzuwarten, wie die Reaktion auf den offenen Brief aus dem November ausfallen wird.

2017 veröffentlichte das Future of Life Institute den Kurzfilm „Slaughterbots“ (youtube.com), welcher eine dystopische Zukunft mit massenproduzierbaren, autonomen Drohnen als Teil des Tagesgeschehens zeigt. Diese werden in großer Masse, ausgerüstet mit Gesichtserkennungstechnologie unter anderem von Terroristinnen und Terroristen genutzt, um gezielt politische Gegnerinnen und Gegner auszuschalten, und zwar ohne größere Abwehrmöglichkeiten zu ermöglichen.

Was zunächst nach der Schreckensvorstellung einer weit entfernten Zukunft klingt, könnte näher an der Realität liegen, als man glaubt und wünscht. Laut eines Berichts der UN aus dem März 2021 (newscientist.com) kam es in Libyen 2020 erstmalig zum Einsatz einer autonomen STM Kargu-2 Kampfdrohne gegen Menschen. Diese in der Türkei hergestellte Drohne hat etwa die Größe einer Katze, kann Schwärme bilden, ist mit Facial-Recognition-Software ausgestattet und kann autonom Ziele identifizieren und eliminieren (stm.com). Außerdem funktioniert die Drohne auch bei fehlendem GPS oder Funksignal durch Abwehrmaßnahmen, wie Jamming-Angriffe. Es scheint also, als seien wir weniger weit von den Slaughterbots entfernt, als man denkt.

Israel entwickelt nach Aussagen des eigenen Ministers für Kommunikation derzeit Drohnen, die autonom Führungspersönlichkeiten der Hamas und Hisbollah identifizieren und ausschalten sollen, manche Drohnen sollen so groß wie Fliegen sein (jpost.com). Im Mai 2021 nutzte Israel einen Schwarm kleinerer autonomer Drohnen für einen Angriff gegen Hamas-Militante im Gaza-Streifen (newscientist.com). China setzt ebenfalls auf die Entwicklung, den Einsatz und den Export autonomer Waffensysteme und wurde hierfür 2019 vom ehemaligen Verteidigungsminister der USA kritisiert (asiatimes.com). Trotzdem setzt sich auch die USA weiterhin gegen ein Verbot von AWS ein.

Eine zentrale Frage in der Diskussion über AWS ist, ob sich ein Verbot dieser Systeme gegenüber einer stärkeren Regulierung rechtfertigen lässt. Denn abgesehen davon, dass die Nutzung von Waffen allgemein fragwürdig ist, könnte der ethisch korrekte Einsatz dem Einsatz von Menschen gegenüber zu bevorzugen sein, da hierdurch weniger Personen zu Schaden kommen könnten. Auch der Einsatz von chemischen Waffen war von Anfang an sehr umstritten. Als diese im Aufkommen waren, haben sich sehr viele Wissenschaftlerinnen und Wissenschaftler aus der Chemie und Biologie dafür stark gemacht, solche Waffensysteme zu verbieten. Ähnlich verhält es sich nun beim Thema AWS, bei dem sich zahlreiche Wissenschaftlerinnen und Wissenschaftler aus der KI und Robotik hierzu positioniert haben und ähnliches fordern.

Durch den Einsatz von AWS, deren Produktion in der Tendenz immer billiger werden wird, besteht die Gefahr, dass hierdurch die Hemmschwelle, einen Krieg anzufangen, sinkt und Staaten leichter dazu verleitet werden, Konflikte eskalieren zu lassen. Dies könnte zu einer höheren Anzahl von Kriegen auf der Welt führen und somit die Zahl der zivilen Opfer wieder erhöhen. Hierbei könnte insbesondere die Möglichkeit von billigen Kampfdrohnen-Schwärmen die Herrschaft über den Luftraum erheblich vereinfachen. Somit kann bereits mit geringem Mitteleinsatz immenser Schaden angerichtet werden.

Eine weitere Gefahr bei der Einführung von AWS ist außerdem der Missbrauch durch unberechtigte Dritte wie Terroristinnen und Terroristen. Bei massenproduzierten Waffen, die vor allem ähnlich wie Handfeuerwaffen entsprechend klein sind, kann es passieren, dass diese auf dem Schwarzmarkt landen und dort von Terroristinnen und Terroristen erworben werden können. Insbesondere durch die Nutzung von Gesichtserkennung in Kombination mit der Nutzung sozialer Netzwerke könnten so politische Feindinnen und Feinde mittels automatisierter „Killerbots” ausfindig gemacht und bedroht oder gar getötet werden. Auch dadurch, dass AWS ferngesteuert eingesetzt werden können, wird es attraktiver für Angreifende, einen Angriff von der anderen Seite der Welt aus zu steuern, ohne dabei erkannt zu werden.

Häufig stellt sich beim Einsatz von KI die Frage, wer schlussendlich für die getroffenen Entscheidungen verantwortlich ist. Diese Frage wird auf jeden Fall dann aufkommen, wenn das falsche Ziel vom System eliminiert wurde. Dies ist, wie bei vielen Systemen, eine Frage der langen Kette der Verantwortlichkeiten, bei der am Ende die Gefahr besteht, dass niemand zur Verantwortung gezogen werden kann (algorithmenethik.de).

Dieser Überblick wurde verfasst von Abdulkadir Noyan, Lasse Cezanne und Elrike van den Heuvel aus der Redaktionsgruppe „SocIeTy“. Da sowohl gesellschaftlich als auch politisch insbesondere im Rahmen der Verwendung neuer Technologien immer wieder Diskussionsbedarf entsteht, freuen wir uns, gemeinsam einen Diskurs zu genau solchen Themen zu gestalten. Verlinken (und folgen) Sie uns gerne auf Twitter unter @society_read. Sie erreichen die Autoren außerdem unter redaktion.sozioinformatik@cs.uni-kl.de.