Technik

Deep Fakes und Face Swap: Bild-Manipulation bei Videos

von
Marten Zabel

Deep Fakes ermöglichen die fast perfekte Bildmanipulation, um Gesichter von Stars in Pornovideos zu schneiden. Pornografie ist allerdings erst der Anfang.

Barack Obama bei einer Rede im weißen Haus
Mr. President als Forschungsobjekt: Anhand von Ex-Präsident Barack Obama zeigte die Universität Washington, wie leicht Videos manipuliert werden können. Foto: picture alliance/AP Photo

Das erfahren Sie gleich:

  • Was Deep Fakes sind
  • Wie das Urheberrecht an Bildern im Internet geregelt ist
  • Wie Face Swap im Video funktioniert

Was Deep Fakes sind

Deep Fakes sind der neueste Trend in der Manipulation von Bewegtbildern. Künstliche Intelligenz und moderne Technik eröffnen dabei völlig neue Möglichkeiten, Filme zu verändern.

Lesen Sie auch

Ladestation

aio-Empfehlung

Unter Strom! Mobilität wird elektrisch

Im Fall von sogenannten Deep Fakes verwenden Privatnutzer diese Möglichkeiten für Pornografie: Sie platzieren die Gesichter von Prominenten auf denen von Pornodarstellern. Das ist nicht nur für die Würde der unfreiwilligen Akteure ein Problem, sondern könnte auch eine weitere Evolutionsstufe von gefälschten Nachrichten im Netz einläuten.

Erste Seiten – wie Pornhub, Twitter oder der GIF-Generator Gfycat – haben den Deep-Fake-Inhalten bereits den Kampf angesagt. Markieren Nutzer Bilder, Videos oder GIFs als Deep Fake, löschen die Seiten diese. Zusätzlich will Twitter User sperren, die diesen Content hochladen.

Und so funktionieren die Deep Fakes, die in den vergangenen Wochen das Internet erreicht haben: Um die Neuralnetze künstlicher Intelligenz darauf zu trainieren, Gesichter von Personen auszutauschen, benötigt man möglichst viele Bilder vom Gesicht der Person, die man in ein Video hineinschneiden will.

Und dann lässt man den Computer rechnen. Für ein kurzes GIF reichen einem herkömmlichen Desktop-Rechner einige Minuten, für eine ganze Filmsequenz ist eine längere Wartezeit nötig.

Wie das Urheberrecht an Bildern im Internet geregelt ist

Die ersten Resultate, die durch das Netz geistern, sind nicht alle überzeugend, sehen zum Teil aber zumindest auf den ersten Blick echt aus.

Damit greifen die Macher nicht nur die Persönlichkeitsrechte und das Ehrgefühl der Stars und Pornodarsteller an, sondern machen sich in vielen Ländern auch strafbar: In Deutschland etwa gilt das Recht am eigenen Gesicht.

Das Urheberrecht von Bildern und Filmen im Internet ist davon ebenfalls betroffen: Allein die Veränderung von fremdem geistigen Eigentum ist illegal. Firmen suchen bereits nach Möglichkeiten, die entsprechenden Videos automatisiert zu erkennen – ebenfalls mit KIs, die auf die Gesichter der Stars trainiert wurden.

Wie Face Swap im Video funktioniert

Diese gesamte Entwicklung ist beunruhigend, denn: Mit mehr und mehr Rechenleistung werden die Methoden immer genauer, mit denen sich auch politische Propaganda fälschen lässt.

War der "Varoufake"-Skandal um den Mittelfinger des griechischen Finanzministers Yanis Varoufakis im Jahr 2015 womöglich noch die Arbeit eines ganzen Teams von Bildspezialisten, braucht es heute nur noch einen guten Rechner: Privatleute wie auch Geheimdienste oder Propagandaapparate können Politiker im Video Dinge sagen und tun lassen, die nie geschehen sind.

Erste Anwendungsbeispiele für politische Manipulationsmöglichkeiten gibt es bereits: Die Universität Washington etwa hat ein Video erstellt, in dem ein per KI erschaffenes Konterfeit des ehemaligen US-Präsidenten Barack Obama lippensynchron mit dessen Ansprachen redet.

Die Face2Face-Software der Stanford University kann die Mimik eines Menschen auf das Video eines anderen übertragen. Und für die Stimmsimulation kann eine Software inzwischen Sound von YouTube-Videos verwenden, um einen Menschen komplett zu imitieren.

Technik

Updates abonnieren und Dossier "E-Mobility" gratis erhalten.

Welche Auswirkungen Deep Fakes haben

Noch sind die Systeme nicht perfekt, und es kommt in den Videos immer wieder zu entstellenden Ausrutschern. Dennoch ist es wohl nur eine Frage der Zeit, bis zumindest Laien den Unterschied zwischen echten und gefälschten Bewegtbildern nicht mehr erkennen können. KI-gestützte Gegenmaßnahmen werden bereits diskutiert. Ein stetes Wettrüsten der Software wird das Resultat sein.

Nachdem Photoshop dafür gesorgt hat, dass Fotos nicht immer zu trauen ist, sind mit der Hilfe von neuralen Netzwerken nun Videos dran. Das Problem von Fake News dürfte sich damit vertiefen – von den ethischen, moralischen und rechtlichen Aspekten gefälschter Pornografie mit unfreiwilligen Teilnehmern ganz abgesehen.

Auch interessant

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.

Schließen