Die Houthis im Jemen benützen Drohnen im Roten Meer Die Houthis im Jemen benützen Drohnen im Roten Meer  (ANSA)

D: Ethische Appelle gegen autonome Waffen

Der Papst warnt schon lange vor KI-Waffen, die selbstständig über Leben und Tod entscheiden. Recherchen der New York-Times zeigen, dass die Entwicklung kaum aufzuhalten ist. Der deutsche Ethiker Anton Losinger fordert dennoch strikte Kontrollen.

Autonome Waffensysteme, die auf Basis von Künstlicher Intelligenz (KI) Entscheidungen über Leben und Tod treffen, werden von Friedensaktivisten zunehmend kritisch betrachtet. Autonome Waffensysteme stellen eine immense Herausforderung für die Ethik und Politik dar. Papst Franziskus hat beim G7-Gipfel eindringlich davor gewarnt, dass solche Systeme die Entscheidung über Leben und Tod eigenständig treffen könnten.

Hier hören Sie das Interview mit Weihbischof Anton Losinger

Der Augsburger Weihbischof Anton Losinger betont, dass eine wirksame Kontrolle solcher Technologien unvermeidlich sei. Er warnt davor, dass ohne entsprechende Regulierungen die Gefahr besteht, dass diese Technologien in Konflikten unkontrollierbar werden. Losinger stellt klar, dass Maschinen niemals die Verantwortung für das Töten übernehmen sollten, und fordert strenge internationale Kontrollen sowie eine umfassende Technikfolgenabschätzung.

Er betont, dass die Würde und die Rechte des Menschen gewahrt bleiben müssen. Der Einsatz von KI in Waffensystemen muss verhältnismäßig und menschenrechtskonform sein. Losinger verweist darauf, dass politische Maßnahmen und verantwortungsvolles Handeln notwendig sind, um eine Eskalation zu verhindern.

Der Ethiker verdeutlicht die dringende Notwendigkeit, ethische Grundsätze in die Entwicklung und Anwendung von KI-Technologien zu integrieren, um eine menschenwürdige Zukunft zu sichern.

Dilemma mit solchen Systemen

Auch Marius Pletsch von der Deutschen Friedensgesellschaft betont im Gespräch mit der epd die ethischen Dilemmata solcher Systeme und ruft zu Abrüstungsinitiativen auf.

Pletsch warnt vor der Entmenschlichung, die mit dem Einsatz autonomer Waffen einhergeht. Er kritisiert, dass Menschen zu bloßen Datenpunkten degradiert werden, deren Schicksal von fehleranfälligen Maschinen entschieden wird. Diese Systeme könnten in kurzer Zeit mehr Ziele identifizieren als menschliche Operatoren verarbeiten könnten, was zu einer eskalierenden Gewaltspirale führen könnte.

Ein besonders erschreckendes Beispiel liefert das israelische Lavender-System, das während des Gaza-Kriegs 2023 verwendet wurde. Pletsch berichtet, dass Soldaten nur etwa zehn Sekunden für die Prüfung pro Ziel aufwendeten, was zu vielen zivilen Opfern führte. Trotz späterer Verbesserungen bei der Zielauswahl bleibt das Potenzial für erhebliche humanitäre Schäden bestehen.

Der Friedensaktivist betont, dass der Einsatz von KI im Militärbereich weiterhin eine Grenze darstellt, die nicht überschritten werden sollte. Er sieht den aktuellen geopolitischen Kontext, insbesondere den russischen Krieg gegen die Ukraine, als erschwerend für die Debatte um Rüstungskontrolle. Viele Staaten, so Pletsch, rüsten auf und bereiten sich auf kriegerische Auseinandersetzungen vor, was die Bereitschaft zur Abrüstung mindert.

Hoffnung in internationalen Initiativen

Trotz dieser Herausforderungen sieht Pletsch Hoffnung in internationalen Initiativen. Er verweist darauf, dass 119 Staaten Regulierungen und Verbote für autonome Waffensysteme unterstützen, darunter auch China. Der UN-Generalsekretär António Guterres drängt auf den Abschluss von Verhandlungen bis 2026, was laut Pletsch ein notwendiger, wenn auch später Schritt wäre.

Pletsch appelliert an die internationale Gemeinschaft, bestehende Foren zu nutzen und neue zu schaffen, um Abrüstungsinitiativen zu stärken. Die Förderung des Friedens und die Verhinderung der Entmenschlichung durch autonome Waffensysteme bleiben zentrale Anliegen für Friedensaktivisten weltweit.

(domradio/epd – mg)

Danke, dass Sie diesen Artikel gelesen haben. Wenn Sie auf dem Laufenden bleiben wollen, können Sie hier unseren Newsletter bestellen.

17. Juli 2024, 13:03