Zum Hauptinhalt springen

Der Aufstieg der Deepfakes

Der Begriff „Deepfake“ ist zusammengesetzt aus „Deep“ für Deep Learning und „Fake“. Deep Learning ist eine fortschrittliche, auf künstlicher Intelligenz (KI) basierende Methode, bei der mehrere Ebenen von ML-Algorithmen (Maschinelles Lernen) eingesetzt werden, um schrittweise immer feinere Merkmale aus den Rohdaten zu ziehen. Die Technologie ist in der Lage, aus unstrukturierten Daten zu lernen, darunter auch das menschliche Gesicht. KI kann beispielsweise Daten zu körperlichen Bewegungen erfassen.

Diese Daten werden dann verarbeitet, um über ein GAN (Generative Adversarial Network) ein Deepfake-Video zu erstellen. Hierbei handelt es sich um ein weiteres spezialisiertes Machine Learning-System. Es verwendet zwei neuronale Netze, die beim Erlernen der Merkmale aus den Trainingsdaten gegeneinander antreten. Diese Daten umfassen beispielsweise Portraits des Opfers. Mit den ermittelten Informationen werden dann zum Beispiel neue Fotos generiert, die dieselben Merkmale aufweisen wie das Original.

Da solche Netze die Bilder immer wieder anhand der Trainingsdaten testen, werden die Ergebnisse immer überzeugender. Das macht Deepfake zu einer echten Gefahr. Darüber hinaus können GANs auch andere Daten als Fotos oder Videos fälschen. Die ML- und Synthetisierungstechniken von Deepfakes können sogar Stimmen nachahmen.

Deepfake-Beispiele

Prominente Beispiele für Deepfakes sind nicht schwer zu finden. Da wäre zum Beispiel das Video von Comedian Jordan Peele, in dem er echtes Filmmaterial von Barack Obama verwendete, aber seine Mimik und Stimme darüberlegte, um öffentlich vor Deepfake-Videos zu warnen. Er hat daraufhin auch gezeigt, wie die beiden zusammengeführten Videos separat aussahen. Sein Ratschlag? Wir müssen alles in Frage stellen, was wir sehen.

Ein weiteres Beispiel ist das Video von Facebook CEO Mark Zuckerberg, in dem er scheinbar darüber spricht, wie Facebook die Zukunft über gestohlene Nutzerdaten kontrollieren wolle – und das auf Instagram. Das Originalvideo stammt von seinem Vortrag hinsichtlich der Einmischung Russlands in die US-Wahlen. Nur 21 Sekunden dieser Rede reichten aus, um das neue Video zu erstellen. Die Stimmimitation war allerdings nicht so gut wie bei Jordan Peeles Obama-Fake und offenbarte das Ganze letztlich als Fälschung.

Doch auch solche weniger überzeugenden Fakes können Folgen haben. Ein Video der betrunkenen Nancy Pelosi, Sprecherin des Repräsentantenhauses in den USA, erreichte auf YouTube mehrere Millionen Klicks. Dabei war das Video künstlich verlangsamt worden, damit es so klingt, als würde sie lallen. Doch nicht nur Politiker haben mit Fälschungen zu kämpfen: Viele berühmte Frauen wurden bereits Opfer von Deepfakes, bei denen ihre Gesichter über pornografische Fotos und Videos gelegt wurden.

Deepfake-Bedrohungen – Betrug und Erpressung

Deepfake-Videos wurden bereits für politische Zwecke oder auch aus persönlicher Rache genutzt. Doch immer öfter kommen sie auch bei groß angelegten Erpressungs- und Betrugsversuchen zum Einsatz.

Der CEO eines britischen Energieunternehmens wurde durch ein Deepfake um umgerechnet 220 000 Euro betrogen. Hierbei wurde die Stimme seines Vorgesetzten aus dem Mutterunternehmen gefälscht, um einen Notfall-Geldtransfer anzufordern. Das Fake war so überzeugend, dass er gar nicht erst misstrauisch wurde. Die entsprechenden Gelder wurden jedoch nicht an das Büro des Mutterkonzerns, sondern auf ein Drittanbieter-Bankkonto überwiesen. Der CEO bemerkte das Ganze erst, als sein Vorgesetzter erneut Gelder anforderte. Dieses Mal schrillten beim CEO die Alarmglocken. Doch es war bereits zu spät, um die bereits überwiesenen Beträge zurückzubuchen.

In Frankreich wurde bei einer kürzlichen Betrugsaktion nicht Deepfake, sondern Nachahmung eingesetzt, in Verbindung mit einem akkuraten Nachbau des Büros von Außenminister Jean-Yves le Drian samt Möblierung. Mit dieser Aktion wurden leitende Angestellte um Millionen von Euro betrogen. Der Betrüger Gilbert Chikli wird beschuldigt, sich als der Minister verkleidet zu haben, um bei reichen Personen und Unternehmensleitungen Geld anzufordern, mit dem angeblich französische Gefangene in Syrien befreit werden sollten. Sein Prozess läuft.

Deepfake-Bedrohungen und -Gefahren

Eine solche Erpressung von Firmenvorständen ist auch durch Deepfake-Angreifer möglich, z. B. über gefälschte Videos, die den Ruf der Opfer ruinieren würden – wenn kein Lösegeld bezahlt wird. Oder Kriminelle verschaffen sich Zugang zu Ihrem Netzwerk, indem sie einfach einen Videoanruf Ihres Chief Information Officer fälschen und so Mitarbeiter dazu bringen, ihnen Passwörter und Berechtigungen bereitzustellen. Und mit denen haben sie die Kontrolle über all Ihre vertraulichen Daten.

Eine weitere Gefahr sind Deepfake-Pornovideos, mit denen Reporterinnen und Journalistinnen erpresst werden – so geschehen bei Rana Ayyub in Indien, die Fälle von Machtmissbrauch aufdeckt. Je günstiger die Technologie zu haben ist, desto häufiger werden Deepfakes eingesetzt, um Personen zu erpressen oder zu betrügen.

Wie können wir uns vor Deepfakes schützen?

Regierungen beginnen langsam damit, sich mit der Bedrohung durch Deepfake-Videos zu befassen. So wurden beispielsweise in Kalifornien im letzten Jahr zwei Gesetze erlassen, die Deepfakes für illegal erklären. Das erste, AB-602, verbietet die Synthetisierung menschlicher Gesichter zur Erstellung pornografischen Materials. Das zweite, AB-730, verbietet die Manipulation von Bildern politischer Kandidaten innerhalb von 60 Tagen vor einer Wahl.

Aber reichen diese Maßnahmen aus? Glücklicherweise entwickeln Cybersicherheitsanbieter ständig neue und bessere Erkennungsalgorithmen. Diese Algorithmen analysieren das Videobild und finden kleinste Verzerrungen, die durch den Fälschungsprozess entstehen. Aktuelle Deepfake-Synthetisierer modellieren beispielsweise ein 2D-Gesicht, das dann verzerrt wird, um im Video die 3D-Perspektive zu schaffen. Die Richtung, in die die Nase zeigt, ist hierfür ein gutes Indiz.

Deepfake-Videos befinden sich noch in der Phase, wo Sie die Anzeichen selbst erkennen können. Achten Sie auf folgende Merkmale von Deepfake-Videos:

  • Ruckartige Bewegungen
  • Veränderungen der Beleuchtung von einem Frame zum nächsten
  • Veränderungen der Hautfarbe
  • Seltsames oder gar kein Blinzeln
  • Fehlende Synchronität von Lippen und Sprache
  • Digitale Artefakte im Bild

Doch je besser Deepfakes werden, desto weniger können Sie sich auf Ihre eigenen Augen verlassen und sollten stattdessen die Hilfe eines guten Cybersicherheitsprogramms beanspruchen.

Aktueller Stand der Anti-Fake-Technologie

Manche neuen Technologien unterstützen beispielsweise Videoautoren bei der Authentifizierung ihrer Videos. So kann ein kryptografischer Algorithmus verwendet werden, um in festen Intervallen Hashes in das Video einzufügen, damit sofort erkennbar ist, wenn das Video in gefälschter Form auftritt. KI und Blockchain können fälschungssichere digitale Fingerabdrücke für Videos registrieren. Das funktioniert ähnlich wie bei Wasserzeichen in Dokumenten. Die Schwierigkeit bei Videos ist jedoch, dass die Hashes bestehen bleiben müssen, wenn das Video für verschiedene Codecs komprimiert wird.

Eine weitere Methode, um Deepfake-Versuche zu verhindern, sind Programme, die speziell aufgebaute digitale Artefakte in Videos einfügen. Hierdurch verdecken sie die Pixelmuster, die Software zur Gesichtserkennung nutzt. So werden Deepfake-Algorithmen verlangsamt und erzielen schlechtere Ergebnisse, was ihre Erfolgswahrscheinlichkeit reduziert.

Gute Sicherheitspraktiken sind der beste Schutz

Doch Technologie ist nicht die einzige Möglichkeit, sich vor Deepfake-Videos zu schützen. Auch gute grundlegende Sicherheitspraktiken können Deepfakes effizient verhindern.

So lassen sich beispielsweise viele Deepfake- und andere Betrugsaktionen verhindern, indem automatische Checks in jeden Prozess zur Auszahlung von Geldern integriert werden. Weitere Möglichkeiten:

  • Stellen Sie sicher, dass Mitarbeiter und ihre Familien das Deepfake-Problem und seine Gefahren kennen.
  • Schulen Sie sich und andere in der Erkennung von Deepfakes.
  • Bauen Sie eine gute Medienkompetenz auf und nutzen Sie hochwertige Nachrichtenquellen.
  • Nutzen Sie grundlegende Protokolle („Vertrauen, aber überprüfen“). Ein wenig Skepsis bei Sprachnachrichten und Videos schützt Sie zwar nicht zu 100 Prozent vor Betrugsversuchen, aber sie hilft Ihnen, viele Stolperfallen zu meiden.

Denken Sie daran: Wenn Hacker anfangen, Deepfakes zu nutzen, um in Heim- und Unternehmensnetzwerke einzudringen, sind grundlegende Best Practices für Cybersicherheit entscheidend, um die Risiken zu minimieren:

  • Regelmäßige Backups schützen Ihre Daten vor Ransomware und bieten Ihnen die Möglichkeit, beschädigte Daten wiederherzustellen.
  • Durch Einsatz unterschiedlicher und sicherer Passwörter für Ihre verschiedenen Konten verhindern Sie, dass durch einen erfolgreichen Angriff auf ein Netzwerk oder einen Service auch alle anderen betroffen sind. Wenn jemand in Ihr Facebook-Konto eindringt, soll er danach nicht in der Lage sein, auch in Ihre anderen Konten zu gelangen.
  • Nutzen Sie ein gutes Sicherheitspaket, wie z. B. Kaspersky Total Security, um Ihr Heimnetzwerk, Ihren Laptop oder Ihr Smartphone vor Cyberbedrohungen zu schützen. Ein solches Paket bietet Antiviren-Software, ein VPN, um das Hacken von WLAN-Verbindungen zu verhindern, sowie Schutz für Ihre Webcams.

Wie sieht die Zukunft von Deepfake aus?

Deepfakes entwickeln sich immer weiter. Vor zwei Jahren noch war es sehr einfach, Deepfake-Videos zu erkennen: an den holprigen Bewegungen oder an den gruseligen Augen, die niemals blinzeln mussten. Doch die neueste Generation gefälschter Videos hat sich weiterentwickelt und angepasst.

Mittlerweile befinden sich geschätzte 15 000 Deepfake-Videos im Umlauf. Einige sind nur zum Spaß, andere sollen Ihre Meinung beeinflussen. Da es jedoch heutzutage nur noch ein oder zwei Tage dauert, ein neues Deepfake zu erstellen, wird diese Zahl wahrscheinlich stark zunehmen.

Verwandte Links

Hacks von Prominenten und Auswirkungen auf Privatbenutzer

Webcam-Hacking: Kann Ihre Webcam Sie ausspionieren?

Wie man die Auswirkungen von Deepfakes reduzieren kann

Gefälschte Videos und Deep Fake – Wie können sich Nutzer schützen?

Früher einmal haben „Hacker“ zum Spaß per Photoshop die Köpfe von Politikern über die Körper von Pornostars gelegt, doch seitdem hat sich viel getan. Heute nutzen sie ähnliche Technologien wie die in Hollywood-Filmen und können so Deepfake-Videos erstellen, in denen ihre Opfer beispielsweise Dinge sagen, die gar nicht von ihnen stammen. Mit diesen Videos zerstören sie dann den Ruf ihrer Opfer oder erpressen sie.
Kaspersky Logo