Technik

Kampfroboter: Wissenschaftler wehren sich gegen KI als Waffe

von Paul Bandelin

Eine Universität in Südkorea steht in der Kritik: Ihre Forschung zu künstlicher Intelligenz könnte für die Entwicklung von Kampfrobotern verwendet werden.

Nahaufnahme einer Schießscheibe mit zwei Treffern.
Was ist das Ziel von künstlicher Intelligenz? Forscher kritisieren, dass sie auch zur Entwicklung von Kampfrobotern eingesetzt wird. Foto: Shutterstock / sirikul

Das erfahren Sie gleich:

  • Weshalb eine Uni in Südkorea für ihre Forschung zu künstlicher Intelligenz in die Kritik geraten ist
  • Warum sich Google-Mitarbeiter gegen Kampfroboter aussprechen
  • Was die Charta der Vereinten Nationen zum Missbrauch von künstlicher Intelligenz sagt

Weshalb eine Uni in Südkorea für ihre Forschung zu künstlicher Intelligenz in die Kritik geraten ist

Forscher der südkoreanischen Universität KAIST (Korean Advanced Institute of Science and Technology) stehen unter dem Verdacht, künstliche Intelligenz zu militärischen Zwecken nutzen zu wollen.

Die 1971 als erste Hochschule des Landes mit einer klaren Ausrichtung auf Technologie und Naturwissenschaften gegründete Forschungseinrichtung sieht sich dem Vorwurf konfrontiert, mit Wissenschaftlern von Hanwha Systems, Südkoreas führendem Rüstungsunternehmen, seit Februar militärische Technik unter Zuhilfenahme von künstlicher Intelligenz zu entwickeln.

Mit dem Rüstungsunternehmen gründete die Universität Anfang des Jahres 2018 das Research Center for the Convergence of National Defense and Artificial Intelligence. Die militärischen Systeme sollen unter anderem ein KI-basiertes Kommandosystem, einen KI-Algorithmus für die Steuerung von unbemannten U-Booten sowiee eine KI-basierte Objektverfolgungstechnik umfassen.

Um gegen den Missbrauch der neuen Technologie vorzugehen, haben 60 Wissenschaftler aus 30 Ländern einen offenen Brief an Sung-Chul Shin, den Präsidenten des KAIST, verfasst. In diesem fordern sie die Universität auf, sich nicht an der Entwicklung autonomer Waffensysteme zu beteiligen.

Es ist bedauerlich, dass eine angesehene Institution wie KAIST den Rüstungswettlauf zur Entwicklung solcher Waffen beschleunigen will.

Professor Toby Walsh, Universität von New South Wales

In dem von Professor Toby Walsh von der Universität von New South Wales verfassten Schreiben kritisieren die Wissenschaftler: "Es ist bedauerlich, dass eine angesehene Institution wie KAIST den Rüstungswettlauf zur Entwicklung solcher Waffen beschleunigen will." Bis diese Vorwürfe nicht geklärt seien, würden die Forscher die Uni in jeder möglichen Form boykottieren.

Shin bestreitet die Anschuldigungen: „Ich möchte betonen, dass das KAIST nicht die Absicht hat, sich an der Entwicklung tödlicher autonomer Waffensysteme und Kampfroboter zu beteiligen. Das KAIST ist sich ethischer Bedenken bei der Anwendung aller möglichen Technologien, einschließlich der künstlichen Intelligenz, bewusst.“

Luftaufnahme eines Kriegsschiffes am Pier.
Haben hier irgendwann die Roboter das Kommando? Zielsysteme könnten künftig von künstlicher Intelligenz gesteuert werden – auch die von Schlachtschiffen. Foto: Shutterstock / bezikus

Warum sich Google-Mitarbeiter gegen Kampfroboter aussprechen

Im Silicon Valley bei Google lautete das Leitbild lange „Don‘t be evil“ – sei nicht böse. Daran halten sich viele Mitarbeiter noch immer: 3100 von ihnen unterzeichneten ein Protestschreiben, in dem sie von CEO Sundar Pichai fordern, das Projekt Maven einzustellen. Hinter Maven verbirgt sich ein Bund zwischen dem Suchmaschinengiganten und dem amerikanischen Verteidigungsministerium.

Laut Google soll die Partnerschaft eine künstliche Intelligenz entwickeln, die für die Auswertung von Videos eingesetzt werden kann. Diese könnte vermutlich auch dafür genutzt werden, die Zielgenauigkeit von Drohnenangriffen zu verbessern.

Die Google-Mitarbeiter verlangen die umgehende Einstellung des Projektes und beziehen sich dabei auf eine vor Jahren erarbeitete Richtlinie, die besagt, dass weder Google noch seine Auftragnehmer jemals Kriegstechnologie entwickeln werden.

Was die Charta der Vereinten Nationen zum Missbrauch von KI sagt

Derzeit befassen sich auch die Vereinten Nationen (UN) in Genf mit dem Thema und diskutieren, wie sich die Bedrohung dieser Waffensysteme verringern und in der Charta niederschreiben lässt. In Bezug auf das KAIST heißt es aus dem UN-Hauptsitz, es sei „bedauerlich, dass eine angesehene Institution wie das KAIST das Wettrüsten zur Entwicklung solcher Waffen beschleunigen will“.

Militärexperten zufolge wird das Schlachtfeld der Zukunft aber ohnehin von autonomen Systemen beherrscht, die mit künstlicher Intelligenz ausgestattet sind – der Menschheit blüht gewissermaßen ein „Internet of Intelligent Things Battle“. Bislang obliegt die Kontrolle über Kampfroboter und Drohnen dem Menschen. Niemals dürfe es aber geschehen, dass Roboter selbst entscheiden, wann sie schießen.

Lesen Sie auch

Ladestation

aio-Empfehlung

Unter Strom! Mobilität wird elektrisch

Tesla-Chef Elon Musk glaubt sogar, dass die Entwicklung von mit künstlicher Intelligenz ausgestatteten Waffensystemen die Menschheit in den dritten Weltkrieg führen wird.

Schon jetzt sehen Kritiker viele Gefahren durch die künstliche Intelligenz – bisher aber vor allem durch den möglichen Missbrauch durch Menschen.

Updates

Bleiben Sie zum Thema Technik immer informiert.

Auch interessant

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.

Schließen