Ein Mann, vor Hausruinen stehend, schießt mit einem Gewehr in die Luft

Drohnen mit todbringender Fracht: Militärische Roboter, Details wollten wir unter der Überschrift Drohnen mit todbringender Fracht: Militärische Roboter für Sie, liebe Leserinnen und Leser, mitteilen. Details zu unseren News mit dem Titel Drohnen mit todbringender Fracht: Militärische Roboter finden Sie in unserem Artikel..

Drohnen mit todbringender Fracht: Militärische Roboter

Drohnen mit todbringender Fracht: Militärische Roboter

Bewaffnete Drohnen sollen künftig autonom agierend in den Krieg ziehen. Forscher und Politiker befürchten eine neue Rüstungsspirale.

Ein Mann, vor Hausruinen stehend, schießt mit einem Gewehr in die Luft

Ein bewaff­neter Kämpfer der Libyschen Nationalarmee (LNA) zielt im Februar 2020 auf eine Drohne Foto: Pan Xiaojing/imago-images

BERLINtaz | Science-Fiction ist dabei, den Kinosaal zu verlassen und Realität zu werden, wieder einmal. Diesmal sind es aber nicht die Killerroboter, die auf Zelluloid in menschenleere Schlachten von Maschinen gegen Maschinen zogen. Sondern die Vorhut der autonomen Waffensysteme (AWS), wie sie in der Fachsprache bezeichnet werden, sind unbemannte Kampfdrohnen, die mit Sprengstoff bepackt über Kriegsgebieten kreisen und mit ihrer „künstlichen Intelligenz“ die Abwurfstelle eigenständig auswählen. Derzeit läuft ein Wettrennen zwischen den Waffenentwicklern der Rüstungsforschung und der internationalen Sicherheitsdiplomatie, die den Weg in die automatisierte Kriegsführung versperren will.

Aufsehen erregte vor einigen Wochen ein Bericht der Vereinten Nationen über den Einsatz von Angriffsdrohnen des türkischen Typs „Kargu-2“ im libyschen Bürgerkrieg. Dem Bericht zufolge, aus dem die britische Wissenschaftszeitschrift New Scientist zitierte, habe es sich um „tödliche autonome Waffensysteme“ gehandelt, die in der Lage waren, aus der Luft Bürgerkriegs-Rebellen zu verfolgen und so programmiert waren, dass es „keinerlei aktiver Datenverbindung“ zwischen dem Operator und dem Flugobjekt bedurft hätte.

Nicht bestätigen konnte der Bericht, dass es bei diesem Einsatz Todesopfer gab. Es dürfte sich dabei aber um den ersten Vorfall gehandelt haben, bei dem Drohnen Menschen ohne Anweisung angegriffen hätten, zitierte New Scientist den Experten für unbemannte Waffensystem, Zak Kellenborn.

Der zweite Trend verfolgt die Entwicklung immer kleinerer Systeme

Auch im militärischen Konflikt um die Region Bergkarabach in Zentralasien kamen sogenannte Kami­kazedrohnen bereits zum Einsatz. Nach ihrem Start suchen sie selbständig die Luftverteidigungssysteme des Gegners und bringen sie zur Detonation. Nach Untersuchungen des Center for Strategic and International Studies in Washington hat Aserbaidschan mehr als 200 Drohnen aus hochentwickelter israelischer Produktion eingesetzt.

Die Situation wurde vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) in einer 180-Seiten-Studie umfassend analysiert. „Die zunehmende Nutzung von automatisierten oder zukünftig autonomen Waffensystemen könnte einen Paradigmenwechsel darstellen, der die Kriegsführung im 21. Jahrhundert revolutionieren würde“, heißt es in dem Report. Er behandelt die technischen Aspekte, ethische Gesichtspunkte und internationale Politikfragen.

Angriff im Schwarm

Die technologischen Trends der Waffenentwicklung gehen einerseits in Richtung extrem leistungsfähiger Großgeräte, wie etwa autonome Kampfdrohnen mit Strahlantrieb und Tarnkappenfähigkeiten, die im Luftkampf über umkämpftem Gebiet eingesetzt werden können. Der zweite Trend verfolgt die Entwicklung immer kleinerer Systeme, die in großer Zahl kostengünstig hergestellt und im Schwarm eingesetzt werden können.

Bei militärischen Robotern, die am Boden operieren, können stationäre und mobile Systeme unterschieden werden. Hier trifft die Technik auf das Bewertungsfeld der Ethik, denn einige Befürworter dieser Entwicklung versprechen sich von autonomen Waffensystemen neben militärischen auch „humanitäre Vorteile“, weil weniger Menschen – Soldaten wie Zivilisten – zu Tode kommen würden. Dagegen steht die Kritik, ob es ethisch vertretbar und völkerrechtlich erlaubt sein kann, die Entscheidung über Leben und Tod von Menschen an Maschinen zu delegieren.

Bei den Empfehlungen an die Politik wird im TAB-Bericht betont: „Derzeit existiert ein Fenster von Möglichkeiten, um mit einem international abgestimmten, zielgerichteten Vorgehen die möglichen Gefahren einzuhegen, die AWS mit sich bringen könnten.“ Dieses Fenster schließe sich sukzessive mit fortschreitender technologischer Entwicklung. Es sei „dringend geboten, diese Herausforderungen unverzüglich anzugehen und Lösungen zu entwickeln“, fordert das TAB-Büro.

Dabei geht es vor allem darum, die rasanten Fortschritte in den Bereichen Robotik und künstlicher Intelligenz (KI) zu „zivilisieren“ und ihr Eindringen in militärische Nutzungen zu verhindern. „Oberhalb von Kernwaffen entsteht eine neue Ebene des Wettrüstens zwischen China und den USA“, warnt Thomas Metzinger, Professor für Theoretische Philosophie an der Universität Mainz. Er war Mitglied einer von der EU-Kommission eingesetzten „High-Level Expert Group on Artificial Intelligence“, die Regulierungsvorschläge erarbeiten sollte.

Leider sei das Thema der „autonomen Waffensysteme“ aus dem Gesetzentwurf der Gruppe „vollständig herausgefallen“, bedauert Metzinger: „Das war ein großer Streitpunkt, da einige Gruppenmitglieder der Meinung waren, dass Europa nicht in das KI-Wettrüsten auf militärischer Ebene eintreten solle“. Wie kam es dazu? „Ich denke, das ist ein Erfolg der Rüstungslobby“, sagte Metzinger in einem Interview mit der Zeitschrift Forschung und Lehre.

Nötig sind globale Lösungen

Eine Regulierung allein auf EU-Ebene wäre zudem auch wenig sachdienlich, denn nötig sind globale Lösungen. „Wie biologische (B-Waffen) und chemische Waffen (C-Waffen) und auch bestimmte konventionelle Waffen können autonome Waffen unproblematisch durch einen völkerrechtlichen Vertrag verboten werden“, ist die Auffassung von Silja Vöneky, Professorin für Völkerrecht und Rechtsethik an der Universität Freiburg und Mitglied der FRIAS Forschungsgruppe Responsible AI. Allerdings müsste die Barriere schon früher aufgestellt werden – nicht erst vor dem Einsatz der autonomen Waffen, sondern bereits bei ihrer Erforschung und Entwicklung.

„Schwieriger wäre ein Entwicklungs- und Herstellungsverbot durchzusetzen und die Durchsetzung zu kontrollieren“, räumt Vöneky ein. „Auch hier gibt es aber mit der C-Waffenkonvention und deren Implementierungsprotokoll eine ‚Blaupause‘, um ein Waffenentwicklungsverbot auch im Frieden schon umzusetzen und dennoch friedliche Forschung zuzulassen.“ Wichtig sei, dass der politische Wille gegeben ist. „Andernfalls bleibt es (wie bei der B-Waffenkonvention) bei einem Verbot, dessen Überwachung nicht vor Ort in den Staaten überprüft werden kann.“

Für Bundesaußenminister Heiko Maas (SPD) kann nur ein internationaler Vertrag zur Ächtung der AWS das Ziel sein. „Genau wie wir das bei Nuklearwaffen über viele Jahrzehnte geschafft haben, müssen wir auch bei neuen Waffentechnologien zu internationalen Verträgen kommen“, sagte Maas in einem Statement für die Deutsche-Welle-Dokumentation „Future Wars – and How to Prevent Them“.

Darin solle zum Ausdruck kommen, „dass bestimmte Entwicklungen zwar technisch möglich, aber nicht verantwortbar, sondern international zu ächten sind“, so der Minister. Erste Schritte dazu gibt es inzwischen im Rahmen der Convention on Certain Conventional ­Weapons (CCW) der Vereinten Nationen, die eine „Einhegung der mit AWS möglicherweise verbundenen Risiken beleuchtet“ und daraus Überlegungen zu Möglichkeiten der präventiven Rüstungskontrolle ableiten will.

Bir cevap yazın