{"id":30145,"date":"2023-05-17T09:41:56","date_gmt":"2023-05-17T07:41:56","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=30145"},"modified":"2023-05-17T09:41:56","modified_gmt":"2023-05-17T07:41:56","slug":"deepfake-darknet-market","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/deepfake-darknet-market\/30145\/","title":{"rendered":"Wie bedrohlich sind Deepfakes wirklich?"},"content":{"rendered":"<p>Die Cyberkriminalit\u00e4t eignet sich schnell neue Technologien an. Ein besonders besorgniserregender Trend ist die Zunahme von Deepfakes \u2013 gef\u00e4lschte Bilder, Audio- oder Videodateien, die mithilfe k\u00fcnstlicher Intelligenz erstellt werden und dadurch \u2013 zumindest f\u00fcr das blo\u00dfe Auge \u2013 absolut real erscheinen. Diese Problematik wird in letzter Zeit umso beunruhigender, da die Tools zur Generierung k\u00fcnstlicher Intelligenz immer weiter verbreitet und f\u00fcr die Allgemeinheit zug\u00e4nglich werden. Zugleich werden die KI-Technologien mit jeder neuen Version immer (atemberaubender) raffinierter und erm\u00f6glichen inzwischen die Erstellung unm\u00f6glich realistisch aussehender Bilder und \u00e4u\u00dferst \u00fcberzeugender Audios.<\/p>\n<p>Deepfakes werden f\u00fcr verschiedene Zwecke eingesetzt, darunter Rache, Finanzbetrug, politische Manipulation und Schikane. In der heutigen hypervernetzten Welt ist es f\u00fcr Betr\u00fcger ein Kinderspiel, Bilder und sogar Videos von potenziellen Opfern zu sammeln \u2013 insbesondere, wenn es sich um Personen des \u00f6ffentlichen Lebens handelt. Cyberkriminelle neigen jedoch dazu, sich auf bestimmte Fachgebiete zu spezialisieren. Das Erstellen hochwertiger Deepfakes erfordert technisches Know-how und fortschrittliche Software, weshalb verschiedene Underground-Experten und -Dienste aus dem Boden gestampft wurden. Wer heute gef\u00e4lschte Videos und Bilder erstellen will, wendet sich an Spezialisten, die, wie Sie sich denken k\u00f6nnen, im Darkweb zu finden sind.<\/p>\n<p>Wir wollen diesen Schwarzmarkt mit Hilfe der Methode der digitalen Ethnografie untersuchen, d. h. wir tauchen direkt in den Online-Lebensraum der Cyberkriminellen ein \u2013 will hei\u00dfen, in Darknet-Foren. Das wichtigste Tool, das wir bei der Darkweb-Analyse einsetzen, ist unser Service <a href=\"https:\/\/media.kaspersky.com\/de\/business-security\/enterprise\/kaspersky-digital-footprint-intelligence-datasheet.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Kaspersky Digital Footprint Intelligence<\/a>, der <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/osint\/\" target=\"_blank\" rel=\"noopener\">OSINT<\/a>-Techniken mit automatisierten und manuellen Analysen des <a href=\"https:\/\/de.wikipedia.org\/wiki\/Surface_Web\" target=\"_blank\" rel=\"noopener nofollow\">Surface Web<\/a>, <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/deep-web\/\" target=\"_blank\" rel=\"noopener\">Deep Web<\/a> und <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/dark-web\/\" target=\"_blank\" rel=\"noopener\">Dark Web<\/a> kombiniert und das Know-how unserer Experten nutzt, um Erkenntnisse \u00fcber die Techniken und Absichten von Cyberkriminellen zu gewinnen. Wir haben Untergrundforen nach Informationen \u00fcber die Erstellung von Deepfakes durchsucht. Um die aktuelle Situation dieser Gefahr zu verstehen, haben wir uns auf Deepfake-Angebote konzentriert, die in diesem Jahr aufgetaucht sind, und manuell einige der interessantesten Beispiele von Deepfake-Diensten gesammelt.<\/p>\n<h2>Der Deepfake-Markt im Darknet: Angebot &amp; Nachfrage<\/h2>\n<p>Unsere Recherchen haben ergeben, dass die Nachfrage nach Deepfakes erheblich ist \u2013 und das Angebot bei weitem \u00fcbersteigt. Es werden dringend Personen gesucht, die bereit sind, gefakte Videos zu erstellen. Und das ist ziemlich beunruhigend, denn wie wir alle wissen, regelt die Nachfrage das Angebot; wir prognostizieren daher, dass es in naher Zukunft tats\u00e4chlich zu einem erheblichen Anstieg der Vorf\u00e4lle mit hochwertigen Deepfakes kommen wird.<\/p>\n<p>Und dem Inhalt der Forenbeitr\u00e4ge im Darkweb nach zu urteilen, sind Cyberkriminelle auf hochwertige Ergebnisse aus. Trotz der Verf\u00fcgbarkeit von Tools zur Erstellung von Deepfakes suchen die Betr\u00fcger nur nach Machern, die hochwertige Videos mit perfektem Ton und ohne zeitliche Verz\u00f6gerung zwischen Video und Audio produzieren k\u00f6nnen.<\/p>\n<div id=\"attachment_30146\" style=\"width: 1264px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092432\/deepfake-darknet-market-demand.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30146\" class=\"size-full wp-image-30146\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092432\/deepfake-darknet-market-demand.jpg\" alt=\"Anzeige im Darkweb: Aktive Suche nach Erstellern f\u00fcr Deepfakes.\" width=\"1254\" height=\"786\"><\/a><p id=\"caption-attachment-30146\" class=\"wp-caption-text\">Anzeige im Darkweb: Aktive Suche nach Erstellern f\u00fcr Deepfakes. <a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Quelle: Digital footprint intelligence<\/a><\/p><\/div>\n<p>\u00a0<\/p>\n<p>Ein gro\u00dfer Teil der Deepfake-Suchanzeigen steht im Zusammenhang mit diesem oder jenem Krypto-Betrug. In der Regel sind diese mit <a href=\"https:\/\/www.kaspersky.de\/blog\/twitter-cryptocurrency-scams\/18100\/\" target=\"_blank\" rel=\"noopener\">Kryptow\u00e4hrungs-Giveaways<\/a> verkn\u00fcpft, doch in einigen F\u00e4llen haben wir auch etwas kuriosere Anzeigen gesehen. So stie\u00dfen wir beispielsweise auf ein Posting, in dem nach einem Profi gesucht wurde, der ein hochwertiges Deepfake-Video erstellen kann, mit dem das Verifizierungssystem von Binance umgangen werden kann. Cyberkriminelle versuchen also, Deepfakes zu verwenden, um biometrische Sicherheitssysteme zu umgehen und auf die Konten der Opfer zuzugreifen, um Geld direkt zu stehlen.<\/p>\n<p>\u00a0<\/p>\n<p>Die Kosten f\u00fcr die Erstellung oder den Kauf fertiger Deepfakes h\u00e4ngen von der Komplexit\u00e4t eines bestimmten Projekts und der Qualit\u00e4t des Endprodukts ab. Auch der Bekanntheitsgrad des nachgeahmten Objekts kann sich auf den Preis auswirken (in der Regel Prominente oder politische Pers\u00f6nlichkeiten). Die Minutenpreise f\u00fcr Deepfake-Videos k\u00f6nnen zwischen 300 und 20.000 US-Dollar liegen. Ist der K\u00e4ufer bereit zu zahlen, k\u00f6nnen Hersteller von Deepfakes Videos anbieten, die unglaublich realistisch sind und authentische Emotionen vermitteln, wodurch sie von echtem Filmmaterial nicht mehr zu unterscheiden sind. Nachfolgend die bereits angek\u00fcndigten Beispiele.<\/p>\n<p>\u00a0<\/p>\n<h2>Imitation von Vitalik Buterin<\/h2>\n<p>Wir haben einen Anbieter entdeckt, der einen Premium-Service f\u00fcr die Erstellung einer hochwertigen Deepfake-Darstellung des Ethereum-Mitbegr\u00fcnders Vitaly Buterin anbietet, inklusive vollst\u00e4ndig synthetisierter Stimme und Video. Es wurde deutlich gemacht, dass es sich bei der Produktion nicht einfach nur um die Synchronisierung bestehender Videos handelt, sondern um einen vollst\u00e4ndigen Produktions-Service, wobei der Anbieter betonte, dass \u201eVitalik f\u00fcr jede Ihrer Fantasien bereitsteht\u201c. Die gesch\u00e4tzte Produktionszeit bei diesem Dienst betrug weniger als zwei Wochen, wobei das Endprodukt ein englischsprachiges Video sein sollte, das 20.000 US-Dollar pro Minute kosten w\u00fcrde.<\/p>\n<div id=\"attachment_30149\" style=\"width: 1086px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092456\/deepfake-darknet-market-buterin.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30149\" class=\"size-full wp-image-30149\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092456\/deepfake-darknet-market-buterin.jpg\" alt=\"Darkweb-Angebot: Ein Deepfake von Vitaly Buterin.\" width=\"1076\" height=\"483\"><\/a><p id=\"caption-attachment-30149\" class=\"wp-caption-text\">Darkweb-Angebot: Ein Deepfake von Vitaly Buterin.<a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Quelle: Digital footprint intelligence<\/a><\/p><\/div>\n<p>\u00a0<\/p>\n<h3>Gef\u00e4lschte Live-Streams<\/h3>\n<p>Ein anderer Anbieter br\u00fcstet sich damit, die hochwertigsten Deepfakes f\u00fcr Krypto-Betrugsmaschen erstellen zu k\u00f6nnen. Der Service umfasst die Entwicklung von \u201eKrypto-Streams\u201c oder gef\u00e4lschten Krypto-Giveaways, eine beliebte Betrugsmethode, bei der Betr\u00fcger mit gef\u00e4lschten Werbeaktionen Kryptow\u00e4hrung eintreiben, indem sie eine Verdopplung jeder an sie gesendeten Kryptow\u00e4hrungszahlung versprechen. Um solche Deepfakes zu erstellen, setzen Betr\u00fcger in der Regel Filmmaterial von Prominenten ein, mit dem sie gef\u00e4lschte Live-Streams auf Social-Media-Plattformen starten. Der Dienstleister zeigt sogar eine vorab erstellte Seite, auf der die Opfer aufgefordert werden, zwischen 2500 und einer Million XRP zu \u00fcberweisen, mit dem Versprechen, ihre Zahlung zu verdoppeln. Als Ergebnis kann ein Opfer zwischen 1000 und 460.000 US-Dollar verlieren.<\/p>\n<div id=\"attachment_30148\" style=\"width: 1253px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092449\/deepfake-darknet-market-crypto.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30148\" class=\"size-full wp-image-30148\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092449\/deepfake-darknet-market-crypto.jpg\" alt=\"Darkweb-Angebot: Deepfake-Videos f\u00fcr Krypto-Streams\" width=\"1243\" height=\"1142\"><\/a><p id=\"caption-attachment-30148\" class=\"wp-caption-text\">Darkweb-Angebot: Deepfake-Videos f\u00fcr Krypto-Streams.<a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Quelle: Digital footprint intelligence<\/a><\/p><\/div>\n<p>\u00a0<\/p>\n<h3>Gef\u00e4lschte Pornos<\/h3>\n<p>Ein weiterer Bereich der Deepfake-Produktion ist die Erstellung von Fake-Pornos. Normalerweise handelt es sich bei den gef\u00e4lschten Pornos um regul\u00e4re Pornovideos mit ausgetauschten Gesichtern, die aus verschiedenen Gr\u00fcnden erstellt werden: Manchmal dienen sie nur der Unterhaltung, k\u00f6nnen aber auch f\u00fcr weitaus unangenehmere Zwecke wie Online-Schikanen, Cybermobbing oder Erpressung verwendet werden.<\/p>\n<p>Einige Deepfake-Autoren erstellen au\u00dferdem Tutorials \u00fcber die Herstellung dieser gef\u00e4lschten Pornovideos, mit Ratschl\u00e4gen zur Auswahl des Quellmaterials und zum Tausch der Gesichter, um einen \u00fcberzeugenden Fake zu erstellen.<\/p>\n<p>\u00a0<\/p>\n<div id=\"attachment_30147\" style=\"width: 2214px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092440\/deepfake-darknet-market-porn.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30147\" class=\"size-full wp-image-30147\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/05\/17092440\/deepfake-darknet-market-porn.jpg\" alt=\"Darkweb-Post mit einem Tutorial zur Erstellung von Deepfake-Pornos.\" width=\"2204\" height=\"626\"><\/a><p id=\"caption-attachment-30147\" class=\"wp-caption-text\">Darkweb-Post mit einem Tutorial zur Erstellung von Deepfake-Pornos.<a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Quelle: Digital footprint intelligence<\/a><\/p><\/div>\n<p>\u00a0<\/p>\n<h2>M\u00f6gliche Folgen<\/h2>\n<p>Die Nutzung von Deepfakes zu kriminellen Zwecken kann unser Leben in vielerlei Hinsicht beeintr\u00e4chtigen. Sie stellt eine ernsthafte Bedrohung f\u00fcr Privatpersonen, Organisationen und die gesamte Gesellschaft dar. Dar\u00fcber hinaus f\u00fchrt die Tatsache, dass es sich bei jeder Internetmeldung oder jedem Nachrichtenartikel um ein Deepfake handeln k\u00f6nnte, zu Misstrauen gegen\u00fcber \u00f6ffentlich zug\u00e4nglichen Informationen und damit zu Paranoia und Unsicherheit. Einige der m\u00f6glichen Folgen der Verwendung von Deepfakes sind:<\/p>\n<h3>Desinformation<\/h3>\n<p>Mit Deepfakes lassen sich massenhaft Falschinformationen verbreiten und die \u00f6ffentliche Meinung manipulieren. Sie k\u00f6nnen f\u00fcr die Erstellung von Fake-News, politischer Propaganda oder irref\u00fchrender Werbung verwendet werden. Dies kann ernsthafte Konsequenzen auf das \u00f6ffentliche Vertrauen haben.<\/p>\n<p><em>Beispiele: Einer der harmlosesten F\u00e4lle der Deepfake-Nutzung war die Geschichte der superrealistischen Fotoreportage \u00fcber das gro\u00dfe Cascadia-Erdbeben, die im Internet <\/em><a href=\"https:\/\/www.forbes.com\/sites\/mattnovak\/2023\/03\/27\/ai-creates-photo-evidence-of-2001-earthquake-that-never-happened\/?sh=40c295b13985\" target=\"_blank\" rel=\"noopener nofollow\"><em>kursierte<\/em><\/a><em>, wobei dieses Ereignis in Wirklichkeit nie stattgefunden hat. Doch es gab einen weitaus gef\u00e4hrlicheren Fall \u2013 kurioserweise nicht die Nutzung von Deepfakes selbst, sondern die blo\u00dfe Vermutung bez\u00fcglich der Nutzung eines Deepfakes \u2013 im Jahr 2018 in Gabun. Zu dieser Zeit kursierte das Ger\u00fccht, der gabunische Pr\u00e4sident Ali Bongo sei schwer erkrankt. Als Reaktion darauf <\/em><a href=\"https:\/\/www.washingtonpost.com\/politics\/2020\/02\/13\/how-sick-president-suspect-video-helped-sparked-an-attempted-coup-gabon\/\" target=\"_blank\" rel=\"noopener nofollow\"><em>ver\u00f6ffentlichte<\/em><\/a><em> die gabunische Regierung ein Video, bei dem es sich angeblich um einen Deepfake handelte \u2013 was die Spannungen zus\u00e4tzlich verst\u00e4rkte und den Verdacht erh\u00e4rtete, die Regierung habe etwas zu verbergen. Eine Woche sp\u00e4ter wurde dieser Verdacht als einer der Gr\u00fcnde f\u00fcr einen Putschversuch angef\u00fchrt.<\/em><\/p>\n<h3>Cyber-Betrug<\/h3>\n<p>Deepfakes werden f\u00fcr jegliche Art von Cyberbetrug verwendet \u2013 von den oben erw\u00e4hnten Giveaway-Kryptoscams bis hin zu zielgerichteten Angriffen auf Unternehmen.<\/p>\n<p><em>Beispiele: Im vergangenen Jahr ging ein per KI erstelltes <\/em><a href=\"https:\/\/decrypt.co\/101365\/deepfake-video-elon-musk-crypto-scam-goes-viral\" target=\"_blank\" rel=\"noopener nofollow\"><em>Video<\/em><\/a><em> von Elon Musk, das hohe Renditen aus einem dubiosen Kryptow\u00e4hrungs-Investmentprogramm versprach, viral und f\u00fchrte dazu, dass Nutzer ihr gesamtes Geld verloren. 2019 erstellten Betr\u00fcger einen <\/em><a href=\"https:\/\/www.forbes.com\/sites\/jessedamiani\/2019\/09\/03\/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000\/?sh=fc57de224165\" target=\"_blank\" rel=\"noopener nofollow\"><em>\u00fcberzeugenden Audio-Deefake<\/em><\/a><em> von der Stimme des CEO eines gro\u00dfen britischen Energieunternehmens und brachten einen leitenden Angestellten des Unternehmens auf diese Weise dazu, 220.000 Euro (243.000 US-Dollar) an einen ungarischen Lieferanten zu \u00fcberweisen. Der leitende Angestellte glaubte, dass er die Anweisungen des CEO befolgte, obwohl die Aufnahme in Wirklichkeit gef\u00e4lscht war.<\/em><\/p>\n<h2>Rufsch\u00e4digung und Datenschutzverletzungen<\/h2>\n<p>Deepfakes k\u00f6nnen dazu verwendet werden, dem Ruf von Personen oder Organisationen zu schaden. Beispielsweise kann ein Deepfake-Video erstellt werden, um eine Person bei illegalen oder unmoralischen Aktivit\u00e4ten darzustellen. Das kann zu Rufsch\u00e4digung und\/oder pers\u00f6nlicher Beeintr\u00e4chtigung f\u00fchren.<\/p>\n<p><em>Beispiel: Im Internet <\/em><a href=\"https:\/\/www.washingtonpost.com\/technology\/2018\/12\/31\/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image\/\" target=\"_blank\" rel=\"noopener nofollow\"><em>tauchten<\/em><\/a><em> Deepfake-Videos der Schauspielerin Scarlett Johansson auf, in denen ihr Gesicht in eindeutigen Szenen \u00fcber die K\u00f6rper von Pornodarstellerinnen gelegt wurde. In Wirklichkeit handelte es sich um ein Deepfake-Video, das mit privaten Fotos erstellt worden war, die bereits 2011 durchgesickert waren. Ihr Repr\u00e4sentant bezeichnete dies als \u201egrobe Verletzung\u201c ihrer Rechte und sagte, sie pr\u00fcfe rechtliche M\u00f6glichkeiten, um die Aufnahmen entfernen zu lassen. Auch der oben erw\u00e4hnte Vorfall mit dem Gesch\u00e4ftsf\u00fchrer des Energieunternehmens f\u00fchrte aufgrund der Tatsache, dass der Angestellte dazu gebracht wurde, die Gelder zu \u00fcberweisen, zu einem erheblichen Reputationsverlust. Als sich die Nachricht \u00fcber den Betrug verbreitete, \u00e4u\u00dferten die Kunden des Unternehmens Bedenken hinsichtlich der F\u00e4higkeit des Unternehmens, die Sicherheit ihrer Daten und Finanzinformationen zu gew\u00e4hrleisten.<\/em><\/p>\n<h3>Identit\u00e4tsdiebstahl<\/h3>\n<p>Wir haben bereits eine Darkweb-Anzeige erw\u00e4hnt, in der nach M\u00f6glichkeiten zur Umgehung der biometrischen Authentifizierung gesucht wird. Nat\u00fcrlich verf\u00fcgt nicht jeder Dienst \u00fcber ein System zur Gesichtserkennung, aber Deepfake kann auch bei regul\u00e4ren Kundenbetreuungsdiensten helfen. So k\u00f6nnte es funktionieren: Der Cyberkriminelle beschafft sich zun\u00e4chst die pers\u00f6nlichen Daten des Kontobesitzers: Name, Adresse, Telefonnummer usw. Anschlie\u00dfend kontaktiert er den Zahlungsdienstleister und behauptet, der Eigent\u00fcmer des Kontos zu sein, der den Zugang zu seinem Konto verloren hat oder auf technische Schwierigkeiten st\u00f6\u00dft. Zur Identit\u00e4tspr\u00fcfung kann der Zahlungsdienstleister eine Video- oder Audioaufnahme des Kontoinhabers bei einer bestimmten Aktion anfordern. Mithilfe der gesammelten Daten k\u00f6nnen Betr\u00fcger ein Deepfake-Video oder -Audio erstellen, das den echten Kontoinhaber bei der Ausf\u00fchrung der angeforderten Aktion imitiert. Auf diese Weise kann der Zahlungsdienstleister dazu gebracht werden, ihnen Zugang zum Konto und den damit verbundenen Geldmitteln zu gew\u00e4hren.<\/p>\n<h2>So sch\u00fctzen Sie sich<\/h2>\n<p>Der offensichtlichste, wenn auch deprimierendste Ratschlag lautet schlicht und einfach: \u201eTraue niemals Augen und Ohren\u201c. Doch es gibt Hoffnung. Die gleichen KI-Technologien, die bei der Erstellung von Deepfakes helfen, k\u00f6nnen auch eingesetzt werden, um echte Videos, Bilder und Audios von F\u00e4lschungen zu unterscheiden. Und solche Tools tauchen langsam aber sicher ebenfalls auf dem Markt auf. Hoffen wir, dass in naher Zukunft Medien, Messenger und vielleicht sogar Browser mit solchen Technologien ausgestattet sein werden.<\/p>\n<p>\u00a0<\/p>\n<p>F\u00fcr Unternehmen haben wir noch einige praktische Ratschl\u00e4ge: Sie k\u00f6nnen bestimmte Deepfake-Angriffe auf Ihre Mitarbeiter und\/oder Kunden bis zu einem gewissen Grad vorhersehen, indem Sie mit Hilfe unserem Service <a href=\"https:\/\/www.kaspersky.de\/enterprise-security\/threat-intelligence?icid=de_kdailyplacehold_acq_ona_smm__onl_b2b_kasperskydaily_wpplaceholder_______\" target=\"_blank\" rel=\"noopener\">Kaspersky Digital Footprint Intelligence<\/a> herausfinden, wie sich cyberkriminelle Aktivit\u00e4ten im Darkweb auf Sie auswirken k\u00f6nnten. Unter anderem kann dieser Dienst nahezu in Echtzeit Informationen \u00fcber globale Sicherheitsereignisse liefern, die speziell Ihre Verm\u00f6genswerte bedrohen, und sensible Daten in geheimen Untergrund-Communities und Foren aufsp\u00fcren. Mehr Informationen \u00fcber diesen Dienst finden Sie <a href=\"https:\/\/media.kaspersky.com\/de\/business-security\/enterprise\/kaspersky-digital-footprint-intelligence-datasheet.pdf\" target=\"_blank\" rel=\"noopener nofollow\">hier<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Einblick in die Mechanismen der Deepfake-Industrie im Darknet.<\/p>\n","protected":false},"author":2468,"featured_media":30151,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2711,1848,3107,3108],"tags":[4063,3528,273],"class_list":{"0":"post-30145","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-business","9":"category-enterprise","10":"category-smb","11":"tag-deepfake","12":"tag-deepfakes","13":"tag-social-engineering"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/deepfake-darknet-market\/30145\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/deepfake-darknet-market\/25663\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/deepfake-darknet-market\/21081\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/deepfake-darknet-market\/28308\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/deepfake-darknet-market\/25961\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/deepfake-darknet-market\/26322\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/deepfake-darknet-market\/28810\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/deepfake-darknet-market\/48112\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/deepfake-darknet-market\/20571\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/deepfake-darknet-market\/21257\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/deepfake-darknet-market\/33924\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/deepfake-darknet-market\/31969\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/deepfake-darknet-market\/31658\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/deepfakes\/","name":"Deepfakes"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30145","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2468"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=30145"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30145\/revisions"}],"predecessor-version":[{"id":30150,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30145\/revisions\/30150"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/30151"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=30145"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=30145"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=30145"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}