{"id":31189,"date":"2024-04-15T13:38:31","date_gmt":"2024-04-15T11:38:31","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=31189"},"modified":"2024-04-15T14:36:51","modified_gmt":"2024-04-15T12:36:51","slug":"real-or-fake-image-analysis-and-provenance","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/real-or-fake-image-analysis-and-provenance\/31189\/","title":{"rendered":"Gleich kommt das (verifizierte) V\u00f6gelchen \u2013 Fake oder Wirklichkeit?"},"content":{"rendered":"<p>Es scheint, als h\u00e4tten wir irgendwann in den letzten 18 Monaten die F\u00e4higkeit verloren, unseren Augen zu trauen. Photoshop-F\u00e4lschungen gibt es schon lange, aber das Aufkommen der generativen k\u00fcnstlichen Intelligenz (KI) hat F\u00e4lschungen auf ein ganz neues Niveau gehoben. Die vielleicht erste virale KI-F\u00e4lschung war ein Bild des Papstes aus dem Jahr 2023 \u2013 darauf tr\u00e4gt der Pontifex eine wei\u00dfe Designer-Daunenjacke. Seitdem ist die Zahl der hochwertigen optischen T\u00e4uschungen rasant in die H\u00f6he geschossen. Und die KI entwickelt sich so schnell weiter, dass wir in naher Zukunft immer \u00fcberzeugendere Fake-Videos erwarten k\u00f6nnen.<\/p>\n<div id=\"attachment_31190\" style=\"width: 416px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15132941\/real-or-fake-image-analysis-and-provenance-01.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31190\" class=\"size-full wp-image-31190\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15132941\/real-or-fake-image-analysis-and-provenance-01.jpg\" alt=\"Einer der ersten Deepfakes, der weltweit viral ging: Der Papst in einer modischen wei\u00dfen Daunenjacke\" width=\"406\" height=\"500\"><\/a><p id=\"caption-attachment-31190\" class=\"wp-caption-text\">Einer der ersten Deepfakes, der weltweit viral ging: Der Papst in einer modischen wei\u00dfen Daunenjacke<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Durch diese Entwicklung versch\u00e4rfen sich die ohnehin schon akuten Probleme mit Fake News und gef\u00e4lschten Bildern. Betr\u00fcger k\u00f6nnen das Foto eines Ereignisses nehmen und behaupten, es stamme von einem anderen Vorfall. Personen, die sich noch nie zuvor getroffen haben, erscheinen pl\u00f6tzlich nebeneinander auf einem Bild. Und so weiter\u00a0\u2026<\/p>\n<p>Die F\u00e4lschung von Bildern und Videos hat direkten Einfluss auf die Cybersicherheit. Betr\u00fcger verwenden bereits gef\u00e4lschte Bilder und Videos, um Opfer um ihr Geld zu bringen. Es kann sein, du erh\u00e4ltst ein Bild von einem traurigen Welpen, das Hilfe braucht, oder ein Foto von einem Prominenten, der f\u00fcr <a href=\"https:\/\/www.kaspersky.de\/blog\/online-investment-dangerous-apps\/30828\/\" target=\"_blank\" rel=\"noopener\">dubiose Pl\u00e4ne<\/a> wirbt, oder auch das Bild einer Kreditkarte, die angeblich einem deiner Bekannten geh\u00f6rt. Betr\u00fcger nutzen KI auch, um <a href=\"https:\/\/www.kaspersky.de\/blog\/pig-butchering-crypto-investment-scam\/31013\/\" target=\"_blank\" rel=\"noopener\">Profilbilder<\/a> zu generieren, insbesondere f\u00fcr Dating-Websites und Social Media.<\/p>\n<p>Die raffiniertesten Betr\u00fcgereien verwenden <a href=\"https:\/\/www.kaspersky.com\/blog\/how-to-spot-and-prevent-boss-scams\/50861\/\" target=\"_blank\" rel=\"noopener nofollow\">Deepfake-Videos und -Audio von Vorgesetzten<\/a> oder Verwandten, damit das Opfer die W\u00fcnsche der Kriminellen erf\u00fcllt. Erst vor Kurzem wurde auf diese Weise ein Mitarbeiter eines Finanzinstituts dazu gebracht, <a href=\"https:\/\/edition.cnn.com\/2024\/02\/04\/asia\/deepfake-cfo-scam-hong-kong-intl-hnk\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">25 Millionen Dollar<\/a> an Cyberkriminelle zu \u00fcberweisen! Betr\u00fcger hatten einen Videoanruf mit dem Finanzchef und den Kollegen des Opfers \u201eorganisiert\u201c \u2013 alles Deepfakes.<\/p>\n<p>Was kann man tun, um nicht auf Deepfakes oder einfache Fakes hereinzufallen? Wie erkennt man F\u00e4lschungen? Dieses Problem ist \u00e4u\u00dferst komplex, l\u00e4sst sich jedoch Schritt f\u00fcr Schritt l\u00f6sen \u2013 man muss nur die <strong>Herkunft<\/strong> des Bildes ermitteln.<\/p>\n<h2>Das kenne ich doch irgendwoher<\/h2>\n<p>Wie bereits erw\u00e4hnt, gibt es verschiedene Arten von \u201eFakeness\u201c (oder Falschheit). Manchmal ist das Bild gar keine F\u00e4lschung, es wird aber in irref\u00fchrender Weise verwendet. Ein echtes Foto aus einem Kriegsgebiet kann als Illustration f\u00fcr einen anderen Konflikt verwendet werden. Oder Spielfilmszenen werden als dokumentarisches Material pr\u00e4sentiert. In diesen F\u00e4llen hilft es nicht viel, das Bild selbst auf Anomalien zu pr\u00fcfen. Du kannst aber online nach Kopien des Bildes suchen. Gl\u00fccklicherweise gibt es daf\u00fcr praktische Tools wie die <a href=\"https:\/\/support.google.com\/websearch\/answer\/1325808?hl=de&amp;sjid=11799196324277800924-EU\" target=\"_blank\" rel=\"nofollow noopener\">umgekehrte Google-Bildersuche<\/a> und <a href=\"https:\/\/tineye.com\/\" target=\"_blank\" rel=\"nofollow noopener\">TinEye<\/a>.<\/p>\n<p>Wenn dir ein Bild zweifelhaft vorkommt, lade es einfach in eines dieser Tools hoch und schau dir die Ergebnisse an. M\u00f6glicherweise stellst du fest, dass das gleiche Bild von einer obdachlosen Familie, von mitleiderregenden Hunden aus dem Tierheim oder von Opfern einer anderen Trag\u00f6die seit Jahren online die Runde macht. Wenn es um betr\u00fcgerische Spendenaufrufe geht, gibt es neben den eigentlichen Bildern \u00fcbrigens noch einige andere <a href=\"https:\/\/www.kaspersky.de\/blog\/fake-charity-scam\/20067\/\" target=\"_blank\" rel=\"noopener\">Warnsignale<\/a> zu beachten.<\/p>\n<div id=\"attachment_31191\" style=\"width: 1506px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15132948\/real-or-fake-image-analysis-and-provenance-02.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31191\" class=\"size-full wp-image-31191\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15132948\/real-or-fake-image-analysis-and-provenance-02.jpg\" alt=\"Ein Hund aus dem Tierheim? Nein, aus einer Fotodatenbank\" width=\"1496\" height=\"903\"><\/a><p id=\"caption-attachment-31191\" class=\"wp-caption-text\">Ein Hund aus dem Tierheim? Nein, aus einer Fotodatenbank<\/p><\/div>\n<h2>Mit Photoshop bearbeitet? Das werden wir gleich sehen.<\/h2>\n<p>Da Fotos schon seit langem manipuliert werden, arbeiten Mathematiker, Ingenieure und Bildexperten daran, ver\u00e4nderte Bilder automatisch zu erkennen. Zu den beliebten Methoden geh\u00f6ren die Metadatenanalyse von Bildern und die <a href=\"https:\/\/en.wikipedia.org\/wiki\/Error_level_analysis\" target=\"_blank\" rel=\"noopener nofollow\">Fehlerstufenanalyse (ELA)<\/a>, bei der nach JPEG-Komprimierungsartefakten gesucht wird, um ver\u00e4nderte Bildteile zu identifizieren. Auf diesen Techniken basieren viele g\u00e4ngige Bildanalyse-Tools, wie z.\u00a0B. <a href=\"https:\/\/www.fakeimagedetector.com\/\" target=\"_blank\" rel=\"nofollow noopener\">Fake Image Detector<\/a>.<\/p>\n<div id=\"attachment_31192\" style=\"width: 619px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15132955\/real-or-fake-image-analysis-and-provenance-03.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31192\" class=\"size-full wp-image-31192\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15132955\/real-or-fake-image-analysis-and-provenance-03.jpg\" alt=\"Fake Image Detector warnt, dass der Papst diese Jacke am Ostersonntag wahrscheinlich nicht getragen hat\u00a0\u2026 oder \u00fcberhaupt noch nie\" width=\"609\" height=\"810\"><\/a><p id=\"caption-attachment-31192\" class=\"wp-caption-text\">Fake Image Detector warnt, dass der Papst diese Jacke am Ostersonntag wahrscheinlich nicht getragen hat \u2026 oder \u00fcberhaupt noch nie<\/p><\/div>\n<p>Mit dem Aufkommen der generativen KI wurden auch neue KI-basierte Methoden zur Erkennung von generierten Inhalten entwickelt \u2013 leider ist keine davon perfekt. Hier sind einige der relevanten Entwicklungen: Erkennung von <a href=\"https:\/\/www.hhi.fraunhofer.de\/en\/departments\/vit\/research-groups\/computer-vision-graphics\/research-topics\/detection-of-face-morphing-attacks.html\" target=\"_blank\" rel=\"nofollow noopener\">Gesichtsver\u00e4nderungen<\/a>, Erkennung von KI-generierten Bildern und <a href=\"https:\/\/www.aiornot.com\/#pricing\" target=\"_blank\" rel=\"nofollow noopener\">Bestimmung des verwendeten KI-Generators<\/a>, und ein offenes <a href=\"https:\/\/huggingface.co\/Organika\/sdxl-detector\" target=\"_blank\" rel=\"nofollow noopener\">KI-Modell<\/a> f\u00fcr die gleichen Zwecke.<\/p>\n<p>Es gibt jedoch gleich mehrere gro\u00dfe Probleme: Keiner dieser Ans\u00e4tze gibt eine 100%ige Gewissheit \u00fcber die Herkunft des Bildes. Kein Ansatz kann garantierten, dass das Bild keine \u00c4nderungen enth\u00e4lt. Und keine der genannten Methoden kann solche \u00c4nderungen verifizieren.<\/p>\n<h2>Hilfe aus dem Internet: \u00dcberpr\u00fcfung der Herkunft von Inhalten<\/h2>\n<p>W\u00e4re es nicht toll, wenn gew\u00f6hnliche Nutzer auf einfache Art \u00fcberpr\u00fcfen k\u00f6nnten, ob ein Bild echt ist? Nehmen wir mal an, du klickst auf ein Bild und siehst so etwas wie: \u201eJan hat dieses Foto am 20. M\u00e4rz mit einem iPhone aufgenommen\u201c, \u201eAnne hat am 22. M\u00e4rz die R\u00e4nder beschnitten und die Helligkeit erh\u00f6ht\u201c, \u201ePeter hat dieses Bild am 23. M\u00e4rz mit hoher Komprimierung neu gespeichert\u201c oder \u201eEs wurden keine \u00c4nderungen vorgenommen\u201c \u2013 und alle diese Daten w\u00e4ren f\u00e4lschungssicher. Das klingt wie ein Traum, oder? Genau dieses Ziel hat aber die <a href=\"https:\/\/c2pa.org\/\" target=\"_blank\" rel=\"nofollow noopener\">Coalition for Content Provenance and Authenticity (C2PA)<\/a>. Zu C2PA geh\u00f6ren einige der wichtigsten Unternehmen aus der Computer-, Foto- und Medienbranche: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press sowie etwa hundert weitere Mitglieder \u2013 also Unternehmen, die an so ziemlich jedem Schritt im Leben eines Bildes beteiligt sein k\u00f6nnen, von der Erstellung bis zur Ver\u00f6ffentlichung im Internet.<\/p>\n<p>Der von dieser Koalition entwickelte <a href=\"https:\/\/c2pa.org\/specifications\/specifications\/1.3\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">C2PA-Standard<\/a> wurde bereits ver\u00f6ffentlicht und hat sogar schon die Version 1.3 erreicht. Und langsam aber sicher f\u00fcgen sich die Puzzleteile zusammen. Nikon <a href=\"https:\/\/www.nikon.com\/company\/news\/2024\/0109_imaging_02.html\" target=\"_blank\" rel=\"nofollow noopener\">plant<\/a> die Produktion von C2PA-kompatiblen Kameras und die BBC hat bereits erste Artikel mit verifizierten Bildern <a href=\"https:\/\/www.bbc.co.uk\/rd\/blog\/2024-03-c2pa-verification-news-journalism-credentials\" target=\"_blank\" rel=\"nofollow noopener\">ver\u00f6ffentlicht<\/a>.<\/p>\n<div id=\"attachment_31193\" style=\"width: 1258px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133002\/real-or-fake-image-analysis-and-provenance-04.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31193\" class=\"size-full wp-image-31193\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133002\/real-or-fake-image-analysis-and-provenance-04.jpg\" alt=\"Die BBC erkl\u00e4rt, wie Bilder und Videos in Artikeln verifiziert werden\" width=\"1248\" height=\"702\"><\/a><p id=\"caption-attachment-31193\" class=\"wp-caption-text\">Die BBC erkl\u00e4rt, wie Bilder und Videos in Artikeln verifiziert werden<\/p><\/div>\n<p>Sobald verantwortungsbewusste Medien und gro\u00dfe Unternehmen dazu \u00fcbergehen, Bilder in verifizierter Form zu ver\u00f6ffentlichen, kannst du die Herkunft jedes Bildes direkt im Browser \u00fcberpr\u00fcfen. Du klickst einfach auf das kleine Etikett \u201e\u00fcberpr\u00fcftes Bild\u201c, und schon erscheint ein gr\u00f6\u00dferes Fenster. Dort siehst du, welche Bilder als Quelle gedient haben und wie das Bild ver\u00e4ndert wurde, bevor es in deinen Browser gelangt ist. Zudem sind Autor und Datum jeder \u00c4nderung sichtbar. Und du kannst sogar alle Zwischenstufen des Bildes sehen.<\/p>\n<div id=\"attachment_31194\" style=\"width: 2090px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133010\/real-or-fake-image-analysis-and-provenance-05.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31194\" class=\"size-full wp-image-31194\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133010\/real-or-fake-image-analysis-and-provenance-05.jpg\" alt=\"Verlauf \u00fcber die Erstellung und Bearbeitung eines Bildes\" width=\"2080\" height=\"756\"><\/a><p id=\"caption-attachment-31194\" class=\"wp-caption-text\">Verlauf \u00fcber die Erstellung und Bearbeitung eines Bildes<\/p><\/div>\n<p>Dieser Ansatz ist nicht nur f\u00fcr Kameras geeignet. Er kann auch f\u00fcr andere Methoden der Bilderstellung verwendet werden. Auch Dienste wie Dall-E und Midjourney k\u00f6nnen ihre Inhalte kennzeichnen.<\/p>\n<div id=\"attachment_31195\" style=\"width: 1174px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133018\/real-or-fake-image-analysis-and-provenance-06.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31195\" class=\"size-full wp-image-31195\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133018\/real-or-fake-image-analysis-and-provenance-06.jpg\" alt=\"Dieses Bild wurde eindeutig in Adobe Photoshop erstellt\" width=\"1164\" height=\"977\"><\/a><p id=\"caption-attachment-31195\" class=\"wp-caption-text\">Dieses Bild wurde eindeutig in Adobe Photoshop erstellt<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Die Verifizierung basiert auf einem Public-Key-Verschl\u00fcsselungsverfahren und hat \u00c4hnlichkeit mit dem Schutz, der in Webserver-Zertifikaten f\u00fcr den Aufbau einer sicheren HTTPS-Verbindung verwendet wird. Dahinter steckt folgende Idee: Jede Person, die Bilder erstellt \u2013 sei es ein Fotograf mit einem bestimmten Kameratyp oder eine Bloggerin mit einer Photoshop-Lizenz \u2013 ben\u00f6tigt ein X.509-Zertifikat von einer vertrauensw\u00fcrdigen Zertifizierungsstelle. Dieses Zertifikat kann werksseitig direkt in Kameras integriert werden oder f\u00fcr Softwareprodukte bei der Aktivierung ausgestellt werden. Wenn Bilder mit Herkunftsnachweis bearbeitet werden, erh\u00e4lt jede neue Version der Datei eine Vielzahl zus\u00e4tzlicher Informationen, wie beispielsweise Datum, Uhrzeit und Speicherort der \u00c4nderungen sowie Miniaturansichten der Originalversion und der bearbeiteten Version. Diese Angaben werden vom Autor oder Herausgeber des Bildes digital signiert. Eine verifizierte Bilddatei enth\u00e4lt also eine Kette aller vorherigen Versionen sowie eine Signatur der Person, die das Bild bearbeitet hat.<\/p>\n<div id=\"attachment_31196\" style=\"width: 742px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133024\/real-or-fake-image-analysis-and-provenance-07.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31196\" class=\"size-full wp-image-31196\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133024\/real-or-fake-image-analysis-and-provenance-07.jpg\" alt=\"Dieses Video enth\u00e4lt KI-generierte Inhalte\" width=\"732\" height=\"412\"><\/a><p id=\"caption-attachment-31196\" class=\"wp-caption-text\">Dieses Video enth\u00e4lt KI-generierte Inhalte<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Die Autoren dieses Standards besch\u00e4ftigen sich auch mit Datenschutzfunktionen. Es kann vorkommen, dass Journalisten ihre Quellen nicht preisgeben d\u00fcrfen. F\u00fcr solche Situationen gibt es den speziellen Bearbeitungstyp \u201eSchw\u00e4rzung\u201c (redaction). In diesem Fall kann jemand bestimmte Informationen \u00fcber den Ersteller des Bildes durch Nullen ersetzen und diese \u00c4nderung anschlie\u00dfend mit seinem eigenen Zertifikat signieren.<\/p>\n<p>Um die M\u00f6glichkeiten von C2PA zu demonstrieren, wurde eine Sammlung von <a href=\"https:\/\/github.com\/c2pa-org\/public-testfiles?tab=readme-ov-file\" target=\"_blank\" rel=\"nofollow noopener\">Testbildern und -videos<\/a> erstellt. Auf der <a href=\"https:\/\/contentcredentials.org\/verify\" target=\"_blank\" rel=\"nofollow noopener\">Website \u201econtent credentials\u201c<\/a> kannst du Anmeldedaten, Erstellungsverlauf und Bearbeitungsverlauf dieser Bilder einsehen.<\/p>\n<div id=\"attachment_31197\" style=\"width: 1910px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133031\/real-or-fake-image-analysis-and-provenance-08.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31197\" class=\"size-full wp-image-31197\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2024\/04\/15133031\/real-or-fake-image-analysis-and-provenance-08.jpg\" width=\"1900\" height=\"1286\"><\/a><p id=\"caption-attachment-31197\" class=\"wp-caption-text\">Die Website \u201econtent credentials\u201c zeigt vollst\u00e4ndige Hintergrundinfos zu C2PA-Bildern an<\/p><\/div>\n<p>\u00a0<\/p>\n<h2>Nat\u00fcrliche Grenzen<\/h2>\n<p>Leider k\u00f6nnen auch digitale Signaturen f\u00fcr Bilder das F\u00e4lschungsproblem nicht im Handumdrehen l\u00f6sen. Schlie\u00dflich gibt es bereits Milliarden von Bildern im Internet, die von niemandem signiert wurden und die nicht einfach verschwinden werden. Da jedoch immer mehr seri\u00f6se Informationsquellen dazu \u00fcbergehen, nur noch signierte Bilder zu ver\u00f6ffentlichen, wird jedes Foto ohne digitale Signatur schon bald ein gewisses Misstrauen ernten. Echte Fotos und Videos mit Zeitstempeln und Standortdaten k\u00f6nnen dann praktisch nicht mehr als Fake benutzt werden. Und auch KI-generierte Inhalte werden leichter zu erkennen sein.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>So unterscheidest du echte Fotos und Videos von Fakes und stellst ihre Herkunft fest <\/p>\n","protected":false},"author":2722,"featured_media":31198,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[10],"tags":[142,2321,4063,4114,1520,1518,53,645,1654],"class_list":{"0":"post-31189","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-betrug","9":"tag-bilder","10":"tag-deepfake","11":"tag-falschungen","12":"tag-ki","13":"tag-kunstliche-intelligenz","14":"tag-phishing","15":"tag-technologie","16":"tag-tips"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/real-or-fake-image-analysis-and-provenance\/31189\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/real-or-fake-image-analysis-and-provenance\/27312\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/22606\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/11577\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/29968\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/real-or-fake-image-analysis-and-provenance\/27469\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/27262\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/real-or-fake-image-analysis-and-provenance\/29956\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/real-or-fake-image-analysis-and-provenance\/28683\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/real-or-fake-image-analysis-and-provenance\/37264\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/real-or-fake-image-analysis-and-provenance\/12254\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/50932\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/real-or-fake-image-analysis-and-provenance\/21787\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/real-or-fake-image-analysis-and-provenance\/22495\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/real-or-fake-image-analysis-and-provenance\/36220\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/real-or-fake-image-analysis-and-provenance\/27628\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/real-or-fake-image-analysis-and-provenance\/33473\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/real-or-fake-image-analysis-and-provenance\/33100\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/bilder\/","name":"Bilder"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/31189","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=31189"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/31189\/revisions"}],"predecessor-version":[{"id":31201,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/31189\/revisions\/31201"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/31198"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=31189"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=31189"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=31189"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}