Deine Spende wird heute verdoppelt
Jede Spende bis zum 31. Dezember wird verdoppelt. So entfaltet dein Beitrag doppelte Wirkung und schützt weltweit die Rechte von Menschen in Gefahr.
Regierungen und Unternehmen entwickeln in rasantem Tempo Waffensysteme, die dank neuer Technologien und künstlicher Intelligenz (KI) immer autonomer werden. Diese „Killer-Roboter“ können in Konfliktgebieten, von der Polizei und bei der Grenzüberwachung eingesetzt werden. In manchen Kriegsgebieten ist ihr Einsatz heute bereits Realität. Doch was bedeutet es für unsere Menschenrechte, wenn eine Maschine über Leben und Tod entscheiden darf? Im folgenden Text erfährst du, warum wir jetzt dringend handeln müssen, um unsere Menschlichkeit zu bewahren und unsere Welt sicherer zu machen.
Autonome Waffensysteme (AWS) sind Waffensysteme, die ihre teils tödliche Wirkung auf der Grundlage eines sensorgestützten Zielsystems und nicht durch menschliche Eingaben erzielen. Es handelt sich um Waffen, die in der Lage sind, Ziele ohne menschliches Eingreifen auszuwählen und anzugreifen.
Autonome Waffensysteme analysieren mit Hilfe von künstlicher Intelligenz (KI) und Algorithmen eigenständig Informationen und treffen aufgrund dieser Informationen Entscheidungen. Die Art der Informationen, die eine autonome Waffe zur Auswahl und zum Angriff auf ein Ziel verwendet, hängt davon ab, welche Arten von Sensoren sie einsetzt und welche Informationen diese Sensoren sammeln. Manche autonome Waffen wenden nur eine Art von Sensor an, andere funktionieren mit einer Mischung verschiedener Sensoren. Beispiele dafür sind Wärmesignatursensoren, Bildverarbeitungskameras und Drucksensoren. Autonome Waffen gleichen die Informationen, die sie von den Sensoren erhalten, mit einem allgemeinen Zielprofil ab. Wenn die Informationen, die das Waffensystem von den Sensoren erhält, nicht mit seinem Zielprofil übereinstimmen, wendet es keine Gewalt an, das heißt es feuert keine Kugel oder Bombe ab. Wenn die Informationen, die das Waffensystem von den Sensoren erhält, mit dem vorprogrammierten Zielprofil übereinstimmen, wird das Waffensystem Gewalt gegen ein Ziel anwenden. Bei diesem Ziel kann es sich zum Beispiel um eine Person oder ein Auto handeln, je nachdem, welches Zielprofil die Waffe verwendet.
Das bedeutet, dass ein Algorithmus auf der Grundlage der von den Sensoren erhaltenen Daten die Entscheidung trifft, dass die Maschine Gewalt anwendet und ein Ziel angreift, anstatt dass ein Mensch (z. B. ein*e Soldat*in) diese Entscheidung trifft. Kein Mensch betätigt den Abzug, wie das bei einem Gewehr der Fall wäre, sondern der Angriff wird ausgelöst, wenn das Ziel bzw. das Opfer, das dem Zielprofil entspricht, vom Sensor der Waffe erfasst wird.
Das bedeutet wiederum, dass diejenigen, die ein autonomes Waffensystem (AWS) einstellen und einsetzen, nicht unbedingt die genauen Ziele, den Ort, den Zeitpunkt oder die Umstände der automatischen Gewaltanwendung kennen (Quelle: Autonomous weapons and digital dehumanisation, stopkillerrobots.org).
AWS existieren in vielen verschiedenen Formen und Größen. Es kann sich dabei um Drohnen oder sogenannte „Loitering Munition“ („lauernde Munition“, auch „Kamikaze-Drohne“ oder „Lauer-Drohne“ genannt) handeln: Die lauernde Munition ist ein unbemanntes Luftfahrzeug mit Sprengstoff, das ohne konkretes Ziel in der Luft kreist, bis ihr ein Ziel zugewiesen wird. AWS können aber auch unbemannte Bodenfahrzeuge wie zum Beispiel Panzer sein, unbemannte Überwasserfahrzeuge, die wie Boote aussehen können, oder andere unbemannte Wasserfahrzeuge, wie zum Beispiel U-Boote.
Zwei Beispiele für bedenkliche lauernde Munition, die bereits im Einsatz sind, ist das türkische autonome Luftfahrzeug STM Kargu-2 und das KUB-BLA der russischen Kalashnikov-Gruppe.
Bei der Kargu-2 handelt es sich um eine Loitering-Munition mit autonomen Flugfähigkeiten und einem automatischen Zielerkennungssystem. Im Jahr 2021 berichtete ein UN-Expert*innengremium, dass die Kargu-2 in Libyen eingesetzt wurde und „so programmiert wurde, dass sie Ziele angreift, ohne dass eine Datenverbindung zwischen der die Waffe bedienenden Person und der Waffe erforderlich ist“ (Quelle: Letter dated 8 March 2021 from the Panel of Experts on Libya Established pursuant to Resolution 1973 (2011) addressed to the President of the Security Council).
Die KUB-BLA, bei der es sich ebenfalls um eine Loitering-Munition handelt, wurde Berichten zufolge von Russland für den russischen Angriffskrieg in der Ukraine eingesetzt. Die KUB-BLA-Munition verfügt angeblich über eine „Technologie zur visuellen Identifizierung mit künstlicher Intelligenz (AIVI) für die Echtzeit-Erkennung und Klassifizierung von Zielen“ (Quelle: Autonomous weapons and digital dehumanisation, stopkillerrobots.org).
Die neuen Technologien, die auf unterschiedlichen Graden von Autonomie beruhen, verbreiten sich derzeit rasch in den Bereichen Militär, Sicherheitsdienste und Polizeiarbeit. Diese Entwicklung wirft grundlegende Menschenrechtsfragen auf: in Bezug auf das Recht auf Leben und körperliche Unversehrtheit, das Recht auf Protest, das Recht auf Privatsphäre und das Recht, nicht diskriminiert zu werden.
Amnesty International ist der Ansicht, dass der Einsatz von AWS zur direkten Anwendung von Gewalt gegen Menschen niemals mit den internationalen Menschenrechtsnormen und dem humanitären Recht vereinbar sein kann.
Maschinen sind schlichtweg nicht in der Lage, komplexe ethische Entscheidungen zu treffen. Sie haben keine Empathie und keinen Verstand, sondern treffen Entscheidungen auf der Grundlage voreingenommener, fehlerhafter und repressiver Prozesse.
Die Risiken der Voreingenommenheit und Diskriminierung sind inakzeptabel – etwa bei Systemen, die zur Klassifizierung und Auswahl menschlicher Ziele physische oder verhaltensbiometrische Daten nutzen. Neue Technologien wie Gesichts- und Stimmerkennung versagen oft bei der Erkennung von Frauen, Menschen of Color und Menschen mit Behinderungen. Autonome Waffen können daher niemals angemessen programmiert werden, um menschliche Entscheidungen zu ersetzen.
AWS stellen somit die Eckpfeiler des Menschenrechtssystems in Frage: das Recht auf Leben und Menschenwürde sowie die Verantwortlichkeit für die folgenreichsten Entscheidungen, die Menschen jemals treffen werden. Ohne die dringend notwendige rechtliche Klarheit – einschließlich eines Verbots von Systemen, die autonom tödliche Gewalt gegen Menschen anwenden und daher per se nicht rechtmäßig verwendet werden können – laufen diese Technologien derzeit Gefahr, die Grundlagen des internationalen Menschenrechtssystems zu untergraben.
Wir halten fest: Die direkte Anwendung von Gewalt gegen Menschen (im Gegensatz zur Anwendung von Gewalt gegen Objekte, die von Natur aus militärische Ziele sind, seien es unbemannte wie Raketen oder solche, die Menschen enthalten, wie Panzer oder Kampfflugzeuge) unter Verwendung von AWS birgt unannehmbare rechtliche und ethische Risiken. Dazu zählt neben der Missachtung des Rechts auf Leben und unserer grundlegenden Menschenwürde das Fehlen menschlicher moralischer und rechtlicher Handlungsfähigkeit. Der Einsatz von AWS bringt Probleme im Zusammenhang mit der Rechenschaftspflicht mit sich.
Ein weiterer großer Nachteil beim Einsatz von AWS liegt in der Hemmschwelle für kriegerische Handlungen: Wenn Soldat*innen durch Maschinen ersetzt werden, erleichtert dies auch die Entscheidung, in den Krieg zu ziehen. Und noch ein weiterer Aspekt hat in der Praxis unabsehbare Konsequenzen: Durch illegale Weitergabe und durch Erbeutung auf dem Schlachtfeld können und werden diese Waffen aller Wahrscheinlichkeit nach in die Hände von Dritten fallen.
Wie oben im Abschnitt Beispiele für autonome Waffensysteme erwähnt, ist bekannt, dass in Libyen und in der Ukraine durch den Aggressor Russland bereits autonome Waffensysteme angewendet wurden.
Darüber hinaus investieren auch Länder wie die USA, China, Israel, Südkorea, Australien, Indien und das Vereinigte Königreich weiterhin in autonome Waffen – aller groben menschenrechtlichen und ethischen Bedenken zum Trotz.
Maschinen sehen uns nicht als Menschen, sondern nur als ein weiteres Stück Code bzw. Daten, die verarbeitet werden müssen. Die Technologien, über die wir uns Sorgen machen sollten, reduzieren lebende Menschen auf Datenpunkte. Unsere komplexen Identitäten, unsere körperlichen Merkmale und unser Verhalten werden analysiert, mit Mustern abgeglichen und in Profile einsortiert. Maschinen treffen Entscheidungen über uns, je nachdem, in welches vorprogrammierte Profil wir „passen“.
Das hat sehr reale Folgen, vor allem für bereits marginalisierte oder gefährdete Gemeinschaften. Denn Technologie, die mit menschlichen Vorurteilen programmiert und trainiert wird, zementiert oft bereits bestehende Vorurteile über Menschen ein, anstatt sie in Frage zu stellen. Stereotype werden durch automatisierte Entscheidungsfindung verfestigt.
Autonome Systeme, die auf Menschen zielen, zuzulassen, würde bedeuten, dass diese Systeme bestehende Strukturen der Ungleichheit verstärken oder verschärfen können. Die Vorurteile in unserer Gesellschaft leben in unseren Datensätzen, unseren Kategorien, unseren Kennzeichnungen und unseren Algorithmen. Problematische neue Technologien werden auch oft zuerst an marginalisierten Communities getestet und eingesetzt. Wir sollten Strukturen der Ungleichheit in Frage stellen und sie nicht in teils tödliche Waffensysteme einprogrammieren.
Killer-Roboter tauchen nicht einfach auf – wir erschaffen sie. Nur weil wir eine Technologie entwickeln können, heißt das noch lange nicht, dass wir es auch tun sollten. Altbekanntes Beispiel: Internationale Bemühungen gegen die Verwendung und Weiterverbreitung von Atomwaffen. Wenn wir die Entmenschlichung durch autonome Waffen zulassen, werden wir es schwer haben, uns vor maschinellen Entscheidungen in anderen Bereichen unseres Lebens zu schützen. Mit autonomen Waffensystemen, die gegen Menschen eingesetzt werden könnten, droht ein Abgleiten in die digitale Entmenschlichung.
Wir haben die Verantwortung, Grenzen zu ziehen: Was ist akzeptabel und was ist es nicht? Wir sind in der Lage, das zu tun, unsere Menschlichkeit zu schützen und dafür zu sorgen, dass die Gesellschaft, in der wir leben und die wir jeden Tag gestalten, eine Gesellschaft ist, in der menschliches Leben wertgeschätzt und nicht zu einem Datensatz wird.
Amnesty International fordert ein vollständiges Verbot der Entwicklung, Herstellung und Verwendung völlig autonomer Waffensysteme.
Systeme wie bestehende Raketenabwehrsysteme und sogenannte „Loitering munitions“ („lauernde Waffen“), die zumindest teilweise nennenswerter menschlicher Kontrolle über Entscheidungen über Ziele und Gewaltanwendung unterliegen, müssen reguliert werden. Die Regulierung muss sicherstellen, dass ihre Betriebsparameter ausreichend eingeschränkt sind, damit Menschen die Ergebnisse der Gewaltanwendung zuverlässig vorhersagen können.
Autonome Waffensysteme, die für die Anwendung von Gewalt gegen Menschen ausgelegt sind, müssen unabhängig davon, ob sie unter nennenswerter menschlicher Kontrolle eingesetzt werden, verboten werden.
Die geltenden Menschenrechtsnormen und das humanitäre Völkerrecht haben sich vor dem Hintergrund konventioneller Waffen entwickelt – die Welt hat sich verändert und es besteht dringender Handlungsbedarf. Amnesty International tritt daher für die Schaffung eines rechtsverbindlichen Instruments (LBI) ein, um einige Arten von AWS zu verbieten und andere zu regulieren. Das würde das humanitäre Völkerrecht und die bestehenden Menschenrechtsnormen in Bezug auf die zunehmende Autonomie von Waffensystemen, die sowohl im militärischen als auch im Strafverfolgungskontext eingesetzt werden, stärken und ihre Klarheit verbessern. Ein solches Instrument muss konkret:
Amnesty International ist Teil der globalen Koalition „Stop Killer Robots“, die sich angesichts der zunehmenden digitalen Entmenschlichung dafür einsetzt, die menschliche Kontrolle bei der Anwendung von Gewalt zu wahren. Die Kampagne fordert ein neues internationales Regelwerk zur Autonomie von Waffensystemen. Sie wurde im Oktober 2012 gegründet und ist weltweit mit mehr als 250 Mitgliedsorganisationen tätig.
Die Kampagne zielt unter anderem darauf ab, politische Vertreter*innen und Parlamentarier*innen auf das Thema aufmerksam zu machen und ihr Engagement zum Schutz vor autonomen Waffensystemen zu fördern. Aus vielen Ländern, auch aus Österreich, gibt es bereits breite politische Unterstützung des Parliamentary Pledge.