Abonnieren Sie kostenlos unsere Updates zum Thema Technik

Anmelden

Technik

Warum künstliche Intelligenz bereits jetzt eine Gefahr ist

von Marten Zabel

Eine Forschergruppe veröffentlicht den "Malicious AI Report" und warnt vor der Bedrohung durch künstliche Intelligenz: Gefahr geht vom Deep Learning aus.

Ein Roboterarm mit fünf Fingern in der Nahaufnahme.
Griff nach der Macht: Die Gefahr bei der künstlichen Intelligenz geht nicht unbedingt von den Maschinen aus – sondern von den Menschen. Foto: picture alliance / dpa

Das erfahren Sie gleich:

  • Welche Gefahren der Malicious AI Report bei künstlicher Intelligenz sieht
  • Warum die Programmierer die größere Gefahr darstellen als die künstliche Intelligenz selber
  • Wieso der Wurm Stuxnet erst der Anfang war

Künstliche Intelligenz: Die andere Gefahr

Der Malicious AI Report, also der Bericht über bösartige künstliche Intelligenz, ist keine Science Fiction. Seine Autoren schreiben nicht über einen Aufstand der Maschinen wie bei Terminator, sondern zeigen ganz reale Gefahren künstlicher Intelligenz auf.

Lesen Sie auch

Nachhaltigkeit bei Audi

Nachhaltigkeit bei Audi

Elektrische Antriebs­technologien im Mittelpunkt

Mit dem Deep Learning erhalten immer mehr Menschen die Möglichkeit, Dinge zu tun, die bislang nur mit großem Ressourcenaufwand möglich waren.

Vor allem mit einem speziellen Verfahren von lernfähigen Algorithmen, dem sogenannten Deep Learning, erhalten immer mehr Menschen die Möglichkeit, Dinge zu tun, die bislang nur mit großem Ressourcenaufwand möglich waren. Die 26 Autoren des Malicious AI Report aus Wissenschaft, Industrie und Gesellschaft warnen davor, dass das auch böswilliges Verhalten einschließt.

Selbst die einfache KI, die in den letzten Jahren für Schlagzeilen gesorgt hat, stellt durchaus eine Gefahr dar – wenngleich nicht so, wie häufig befürchtet. Eine Technik, der Menschen im Strategiespiel Go schlägt oder auf Fotos Hunde von Katzen unterscheiden kann, ist noch nicht geeignet, um gleich die Weltherrschaft an sich reißen. Das muss er aber auch nicht, um ein Werkzeug für Kriminelle zu werden.

Auf einem Tisch steht das Brettspiel Go mit schwarzen und weißen Steinen. Rechts im Bild ist eine Hand zu sehen, die einen schwarzen Stein verschiebt.
Go, Algorithmus, Go! Das Softwareprogramm AlphaGo von Google Deepmind kann inzwischen die besten menschlichen Gegner beim Brettspiel Go schlagen. Foto: picture-alliance / Robert B. Fishman

Künstliche Intelligenz ist jetzt schon bösartig

Mit Deep Fakes zeigte sich jüngst eine Situation, in der KI dafür genutzt wird, mehr zu schaffen, als Menschen mit den gleichen Ressourcen könnten. Dabei werden die Gesichter von Prominenten über die von anderen Menschen gelegt werden – und das in der Qualität von Hollywood-Spezialeffekten.

Der Bericht weist darauf hin, dass neuronale Netzwerke in die Hände weniger Einzelpersonen die Macht legen, die bislang beispielsweise Geheimdiensten mit vielen Mitarbeitern vorbehalten war.

Die Cyberexperten warnen, dass sich existierende Bedrohungen verschlimmern werden, da mehr Schaden bei weniger Aufwand erreicht werden kann. Mittelfristig müsste man zudem mit neuen Bedrohungen rechnen, die insbesondere neue Technologien ins Visier nehmen; und schließlich werde sich der Charakter von Cyberangriffen verändern, und sie werden schwieriger zu identifizieren sein.

Der Wurm Stuxnet war erst der Anfang

Vor allem in Sachen Computersicherheit ist KI eine große Bedrohung: Viren und andere Malware können damit auf Abwehrversuche reagieren und sich selbst anpassen, um neue Lücken in der Verteidigung von Computersystemen zu finden.

Vor rund acht Jahren wurde der Wurm "Stuxnet" bekannt, als er Industrieanlagen mit bestimmten Steuereinheiten von Siemens angriff: Die Automation einer Urananreicherungsanlage im Iran war das Ziel, mit dem Stuxnet Entsetzen auslöste, und es war die Rede von einer neuen Dimension der Cyber-Kriegsführung.

Als die erste Variante des Wurms etwa 2009 in Umlauf gebracht wurde, mussten sich die Hacker noch mit der Verbreitung ihrer Malware per USB-Stick begnügen, da die SPS-Einheiten (Speicherprogrammierbare Steuerung) der Automationsanlage in der Anreicherungsanlage nicht mit dem Internet verbunden waren.

Damals spielten sie infizierte USB-Sticks mehreren Unternehmen zu, die mit dem Angriffsziel geschäftliche Verbindungen hatten. Das Internet of Things (IoT) ist dagegen eine verlockende Spielwiese für Cyberattacken und Spionage – insbesondere, da es längst die Industrie erreicht hat. Mit immer mehr vernetzten Geräten wachsen die möglichen Angriffsflächen; ebenso wie die Möglichkeit, in der realen Welt Schaden anzurichten.

Fake News für den Konfrontationskurs

Auch Fake News sind mit künstlicher Intelligenz eine Gefahr, deren Potenzial noch steigt. Google hat bereits demonstriert, wie sich Stimmen von Menschen täuschend echt imitieren lassen. Eine Kombination aus Ton- und Bildmanipulationen wie bei Deep Fakes könnte Nachrichtensendungen verfälschen und Politikern Worte und Gesten andichten - das alles könnte ein einzelner böswilliger Programmierer verursachen.

Mag das noch an den Varoufake-Skandal von vor wenigen Jahren erinnern, dürfte der Spaß aufhören, wenn man an den Konflikt zwischen den USA und Nordkorea denkt - was könnte eine täuschend echte Kriegserklärung von einem der beiden Machthaber anrichten!

Updates

Bleiben Sie zum Thema Technik immer informiert.

Auch interessant

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.

Schließen