Gleich kommt das (verifizierte) Vögelchen – Fake oder Wirklichkeit?

So unterscheidest du echte Fotos und Videos von Fakes und stellst ihre Herkunft fest

Gleich kommt das (verifizierte) Vögelchen – Fake oder Wirklichkeit?

Es scheint, als hätten wir irgendwann in den letzten 18 Monaten die Fähigkeit verloren, unseren Augen zu trauen. Photoshop-Fälschungen gibt es schon lange, aber das Aufkommen der generativen künstlichen Intelligenz (KI) hat Fälschungen auf ein ganz neues Niveau gehoben. Die vielleicht erste virale KI-Fälschung war ein Bild des Papstes aus dem Jahr 2023 – darauf trägt der Pontifex eine weiße Designer-Daunenjacke. Seitdem ist die Zahl der hochwertigen optischen Täuschungen rasant in die Höhe geschossen. Und die KI entwickelt sich so schnell weiter, dass wir in naher Zukunft immer überzeugendere Fake-Videos erwarten können.

Einer der ersten Deepfakes, der weltweit viral ging: Der Papst in einer modischen weißen Daunenjacke

Einer der ersten Deepfakes, der weltweit viral ging: Der Papst in einer modischen weißen Daunenjacke

 

Durch diese Entwicklung verschärfen sich die ohnehin schon akuten Probleme mit Fake News und gefälschten Bildern. Betrüger können das Foto eines Ereignisses nehmen und behaupten, es stamme von einem anderen Vorfall. Personen, die sich noch nie zuvor getroffen haben, erscheinen plötzlich nebeneinander auf einem Bild. Und so weiter …

Die Fälschung von Bildern und Videos hat direkten Einfluss auf die Cybersicherheit. Betrüger verwenden bereits gefälschte Bilder und Videos, um Opfer um ihr Geld zu bringen. Es kann sein, du erhältst ein Bild von einem traurigen Welpen, das Hilfe braucht, oder ein Foto von einem Prominenten, der für dubiose Pläne wirbt, oder auch das Bild einer Kreditkarte, die angeblich einem deiner Bekannten gehört. Betrüger nutzen KI auch, um Profilbilder zu generieren, insbesondere für Dating-Websites und Social Media.

Die raffiniertesten Betrügereien verwenden Deepfake-Videos und -Audio von Vorgesetzten oder Verwandten, damit das Opfer die Wünsche der Kriminellen erfüllt. Erst vor Kurzem wurde auf diese Weise ein Mitarbeiter eines Finanzinstituts dazu gebracht, 25 Millionen Dollar an Cyberkriminelle zu überweisen! Betrüger hatten einen Videoanruf mit dem Finanzchef und den Kollegen des Opfers „organisiert“ – alles Deepfakes.

Was kann man tun, um nicht auf Deepfakes oder einfache Fakes hereinzufallen? Wie erkennt man Fälschungen? Dieses Problem ist äußerst komplex, lässt sich jedoch Schritt für Schritt lösen – man muss nur die Herkunft des Bildes ermitteln.

Das kenne ich doch irgendwoher

Wie bereits erwähnt, gibt es verschiedene Arten von „Fakeness“ (oder Falschheit). Manchmal ist das Bild gar keine Fälschung, es wird aber in irreführender Weise verwendet. Ein echtes Foto aus einem Kriegsgebiet kann als Illustration für einen anderen Konflikt verwendet werden. Oder Spielfilmszenen werden als dokumentarisches Material präsentiert. In diesen Fällen hilft es nicht viel, das Bild selbst auf Anomalien zu prüfen. Du kannst aber online nach Kopien des Bildes suchen. Glücklicherweise gibt es dafür praktische Tools wie die umgekehrte Google-Bildersuche und TinEye.

Wenn dir ein Bild zweifelhaft vorkommt, lade es einfach in eines dieser Tools hoch und schau dir die Ergebnisse an. Möglicherweise stellst du fest, dass das gleiche Bild von einer obdachlosen Familie, von mitleiderregenden Hunden aus dem Tierheim oder von Opfern einer anderen Tragödie seit Jahren online die Runde macht. Wenn es um betrügerische Spendenaufrufe geht, gibt es neben den eigentlichen Bildern übrigens noch einige andere Warnsignale zu beachten.

Ein Hund aus dem Tierheim? Nein, aus einer Fotodatenbank

Ein Hund aus dem Tierheim? Nein, aus einer Fotodatenbank

Mit Photoshop bearbeitet? Das werden wir gleich sehen.

Da Fotos schon seit langem manipuliert werden, arbeiten Mathematiker, Ingenieure und Bildexperten daran, veränderte Bilder automatisch zu erkennen. Zu den beliebten Methoden gehören die Metadatenanalyse von Bildern und die Fehlerstufenanalyse (ELA), bei der nach JPEG-Komprimierungsartefakten gesucht wird, um veränderte Bildteile zu identifizieren. Auf diesen Techniken basieren viele gängige Bildanalyse-Tools, wie z. B. Fake Image Detector.

Fake Image Detector warnt, dass der Papst diese Jacke am Ostersonntag wahrscheinlich nicht getragen hat … oder überhaupt noch nie

Fake Image Detector warnt, dass der Papst diese Jacke am Ostersonntag wahrscheinlich nicht getragen hat … oder überhaupt noch nie

Mit dem Aufkommen der generativen KI wurden auch neue KI-basierte Methoden zur Erkennung von generierten Inhalten entwickelt – leider ist keine davon perfekt. Hier sind einige der relevanten Entwicklungen: Erkennung von Gesichtsveränderungen, Erkennung von KI-generierten Bildern und Bestimmung des verwendeten KI-Generators, und ein offenes KI-Modell für die gleichen Zwecke.

Es gibt jedoch gleich mehrere große Probleme: Keiner dieser Ansätze gibt eine 100%ige Gewissheit über die Herkunft des Bildes. Kein Ansatz kann garantierten, dass das Bild keine Änderungen enthält. Und keine der genannten Methoden kann solche Änderungen verifizieren.

Hilfe aus dem Internet: Überprüfung der Herkunft von Inhalten

Wäre es nicht toll, wenn gewöhnliche Nutzer auf einfache Art überprüfen könnten, ob ein Bild echt ist? Nehmen wir mal an, du klickst auf ein Bild und siehst so etwas wie: „Jan hat dieses Foto am 20. März mit einem iPhone aufgenommen“, „Anne hat am 22. März die Ränder beschnitten und die Helligkeit erhöht“, „Peter hat dieses Bild am 23. März mit hoher Komprimierung neu gespeichert“ oder „Es wurden keine Änderungen vorgenommen“ – und alle diese Daten wären fälschungssicher. Das klingt wie ein Traum, oder? Genau dieses Ziel hat aber die Coalition for Content Provenance and Authenticity (C2PA). Zu C2PA gehören einige der wichtigsten Unternehmen aus der Computer-, Foto- und Medienbranche: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press sowie etwa hundert weitere Mitglieder – also Unternehmen, die an so ziemlich jedem Schritt im Leben eines Bildes beteiligt sein können, von der Erstellung bis zur Veröffentlichung im Internet.

Der von dieser Koalition entwickelte C2PA-Standard wurde bereits veröffentlicht und hat sogar schon die Version 1.3 erreicht. Und langsam aber sicher fügen sich die Puzzleteile zusammen. Nikon plant die Produktion von C2PA-kompatiblen Kameras und die BBC hat bereits erste Artikel mit verifizierten Bildern veröffentlicht.

Die BBC erklärt, wie Bilder und Videos in Artikeln verifiziert werden

Die BBC erklärt, wie Bilder und Videos in Artikeln verifiziert werden

Sobald verantwortungsbewusste Medien und große Unternehmen dazu übergehen, Bilder in verifizierter Form zu veröffentlichen, kannst du die Herkunft jedes Bildes direkt im Browser überprüfen. Du klickst einfach auf das kleine Etikett „überprüftes Bild“, und schon erscheint ein größeres Fenster. Dort siehst du, welche Bilder als Quelle gedient haben und wie das Bild verändert wurde, bevor es in deinen Browser gelangt ist. Zudem sind Autor und Datum jeder Änderung sichtbar. Und du kannst sogar alle Zwischenstufen des Bildes sehen.

Verlauf über die Erstellung und Bearbeitung eines Bildes

Verlauf über die Erstellung und Bearbeitung eines Bildes

Dieser Ansatz ist nicht nur für Kameras geeignet. Er kann auch für andere Methoden der Bilderstellung verwendet werden. Auch Dienste wie Dall-E und Midjourney können ihre Inhalte kennzeichnen.

Dieses Bild wurde eindeutig in Adobe Photoshop erstellt

Dieses Bild wurde eindeutig in Adobe Photoshop erstellt

 

Die Verifizierung basiert auf einem Public-Key-Verschlüsselungsverfahren und hat Ähnlichkeit mit dem Schutz, der in Webserver-Zertifikaten für den Aufbau einer sicheren HTTPS-Verbindung verwendet wird. Dahinter steckt folgende Idee: Jede Person, die Bilder erstellt – sei es ein Fotograf mit einem bestimmten Kameratyp oder eine Bloggerin mit einer Photoshop-Lizenz – benötigt ein X.509-Zertifikat von einer vertrauenswürdigen Zertifizierungsstelle. Dieses Zertifikat kann werksseitig direkt in Kameras integriert werden oder für Softwareprodukte bei der Aktivierung ausgestellt werden. Wenn Bilder mit Herkunftsnachweis bearbeitet werden, erhält jede neue Version der Datei eine Vielzahl zusätzlicher Informationen, wie beispielsweise Datum, Uhrzeit und Speicherort der Änderungen sowie Miniaturansichten der Originalversion und der bearbeiteten Version. Diese Angaben werden vom Autor oder Herausgeber des Bildes digital signiert. Eine verifizierte Bilddatei enthält also eine Kette aller vorherigen Versionen sowie eine Signatur der Person, die das Bild bearbeitet hat.

Dieses Video enthält KI-generierte Inhalte

Dieses Video enthält KI-generierte Inhalte

 

Die Autoren dieses Standards beschäftigen sich auch mit Datenschutzfunktionen. Es kann vorkommen, dass Journalisten ihre Quellen nicht preisgeben dürfen. Für solche Situationen gibt es den speziellen Bearbeitungstyp „Schwärzung“ (redaction). In diesem Fall kann jemand bestimmte Informationen über den Ersteller des Bildes durch Nullen ersetzen und diese Änderung anschließend mit seinem eigenen Zertifikat signieren.

Um die Möglichkeiten von C2PA zu demonstrieren, wurde eine Sammlung von Testbildern und -videos erstellt. Auf der Website „content credentials“ kannst du Anmeldedaten, Erstellungsverlauf und Bearbeitungsverlauf dieser Bilder einsehen.

Die Website „content credentials“ zeigt vollständige Hintergrundinfos zu C2PA-Bildern an

 

Natürliche Grenzen

Leider können auch digitale Signaturen für Bilder das Fälschungsproblem nicht im Handumdrehen lösen. Schließlich gibt es bereits Milliarden von Bildern im Internet, die von niemandem signiert wurden und die nicht einfach verschwinden werden. Da jedoch immer mehr seriöse Informationsquellen dazu übergehen, nur noch signierte Bilder zu veröffentlichen, wird jedes Foto ohne digitale Signatur schon bald ein gewisses Misstrauen ernten. Echte Fotos und Videos mit Zeitstempeln und Standortdaten können dann praktisch nicht mehr als Fake benutzt werden. Und auch KI-generierte Inhalte werden leichter zu erkennen sein.

Tipps