{"id":30344,"date":"2023-07-19T11:30:10","date_gmt":"2023-07-19T09:30:10","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=30344"},"modified":"2023-07-24T09:45:37","modified_gmt":"2023-07-24T07:45:37","slug":"audio-deepfake-technology","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/audio-deepfake-technology\/30344\/","title":{"rendered":"Trauen Sie Ihren Ohren nicht: Sprach-Deepfakes"},"content":{"rendered":"<p>Haben Sie sich jemals gefragt, woher Sie wissen, mit wem Sie telefonieren? Es ist offensichtlich mehr als nur der Name, der auf dem Display angezeigt wird. Wenn wir eine unbekannte Stimme h\u00f6ren, w\u00e4hrend wir von einer gespeicherten Nummer angerufen werden, wissen wir sofort, dass etwas nicht stimmt. Um festzustellen, mit wem wir wirklich sprechen, notieren wir unbewusst die Klangfarbe, die Art und die Intonation der Sprache. Doch wie zuverl\u00e4ssig ist das eigene Geh\u00f6r im digitalen Zeitalter der K\u00fcnstlichen Intelligenz? Wie die neuesten Nachrichten zeigen, ist das, was wir h\u00f6ren, nicht immer vertrauensw\u00fcrdig \u2013 denn Stimmen k\u00f6nnen eine F\u00e4lschung sein: ein Deepfake.<\/p>\n<h2>Hilfe, ich stecke in Schwierigkeiten<\/h2>\n<p>Im Fr\u00fchjahr 2023 versuchten Betr\u00fcger in Arizona, telefonisch <a href=\"https:\/\/www.independent.co.uk\/tech\/ai-voice-clone-scam-kidnapping-b2319083.html\" target=\"_blank\" rel=\"noopener nofollow\">Geld von einer Frau zu erpressen<\/a>. Sie h\u00f6rte die Stimme ihrer 15-j\u00e4hrigen Tochter, die um Hilfe flehte, bevor ein Unbekannter das Telefon an sich riss und L\u00f6segeld forderte, w\u00e4hrend im Hintergrund die Schreie ihrer Tochter noch zu h\u00f6ren waren. Die Mutter war sich sicher, dass die Stimme wirklich die ihrer Tochter war. Gl\u00fccklicherweise fand sie schnell heraus, dass mit ihrer Tochter alles in Ordnung war, was dazu f\u00fchrte, dass sie erkannte, dass sie ein Opfer von Betr\u00fcgern war.<\/p>\n<p>Es kann nicht zu 100 % nachgewiesen werden, dass die Angreifer einen Deepfake verwendet haben, um die Stimme des Teenagers nachzuahmen. M\u00f6glicherweise handelte es sich bei dem Betrug um eine traditionellere Art, bei der die Qualit\u00e4t des Anrufs, die Unerwartetheit der Situation, der Stress und die Vorstellungskraft der Mutter eine Rolle spielten, um sie glauben zu lassen, sie habe etwas geh\u00f6rt, was sie nicht h\u00f6rte. Aber selbst wenn in diesem Fall keine Technologien f\u00fcr neuronale Netze verwendet wurden, k\u00f6nnen und werden Deepfakes tats\u00e4chlich vorkommen, und mit fortschreitender Entwicklung werden sie immer \u00fcberzeugender und gef\u00e4hrlicher. Um die Ausbeutung der Deepfake-Technologie durch Kriminelle zu bek\u00e4mpfen, m\u00fcssen wir verstehen, wie sie funktioniert.<\/p>\n<h2>Was sind Deepfakes?<\/h2>\n<p>Deepfake (\u201edeep learning\u201c + \u201efake\u201c) K\u00fcnstliche Intelligenz hat in den letzten Jahren rapide zugenommen. Maschinelles Lernen kann verwendet werden, um \u00fcberzeugende F\u00e4lschungen von Bildern, Videos oder Audioinhalten zu erstellen. Zum Beispiel k\u00f6nnen neuronale Netze in Fotos und Videos verwendet werden, um das Gesicht einer Person durch ein anderes zu ersetzen, w\u00e4hrend Gesichtsausdr\u00fccke und Beleuchtung erhalten bleiben. Anfangs waren diese F\u00e4lschungen von geringer Qualit\u00e4t und leicht zu erkennen, aber mit der Weiterentwicklung der Algorithmen wurden die Ergebnisse so \u00fcberzeugend, dass es jetzt schwierig ist, sie von der Realit\u00e4t zu unterscheiden. Im Jahr 2022 wurde in Russland die weltweit erste <a href=\"https:\/\/www.youtube.com\/playlist?list=PLWTwWADrHvpkgv3cKyjomdfhESt5711OZ\" target=\"_blank\" rel=\"noopener nofollow\">Deepfake-Fernsehserie<\/a> ver\u00f6ffentlicht, in der Deepfakes von Jason Statham, Margot Robbie, Keanu Reeves und Robert Pattinson die Hauptrollen spielen.<\/p>\n<div id=\"attachment_30347\" style=\"width: 2058px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/07\/19110427\/audio-deepfake-technology-01.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30347\" class=\"size-full wp-image-30347\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/07\/19110427\/audio-deepfake-technology-01.jpg\" alt=\"Deepfake-Versionen von Hollywood-Stars aus der russischen Fernsehserie PMJason. \" width=\"2048\" height=\"1278\"><\/a><p id=\"caption-attachment-30347\" class=\"wp-caption-text\">Deepfake-Versionen von Hollywood-Stars aus der russischen Fernsehserie PMJason.<\/p><\/div>\n<p>\u00a0<\/p>\n<h2>Sprachumwandlung<\/h2>\n<p>Aber heute liegt unser Fokus auf der Technologie, die zum Erstellen von Sprach-Deepfakes verwendet wird. Dies wird auch als Sprachkonvertierung bezeichnet (oder \u201eKlonen von Stimmen\u201c, wenn Sie eine vollst\u00e4ndige digitale Kopie davon erstellen). Die Sprachkonvertierung basiert auf Autoencodern \u2013 einer Art neuronalem Netz, das zun\u00e4chst die Eingabedaten (Teil des <u>Encoders<\/u>) in eine kompakte interne Darstellung komprimiert und dann lernt, sie aus dieser Darstellung wieder zu dekomprimieren (Teil des <u>Decoders<\/u>), um die urspr\u00fcnglichen Daten wiederherzustellen. Auf diese Weise lernt das Modell, Daten in einem komprimierten Format darzustellen und gleichzeitig die wichtigsten Informationen hervorzuheben.<\/p>\n<div id=\"attachment_30346\" style=\"width: 2143px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/07\/19110341\/audio-deepfake-technology-02.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30346\" class=\"size-full wp-image-30346\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/07\/19110341\/audio-deepfake-technology-02.png\" alt=\"Autoencoder-Schema. \" width=\"2133\" height=\"1600\"><\/a><p id=\"caption-attachment-30346\" class=\"wp-caption-text\">Autoencoder-Schema<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Um Sprach-Deepfakes zu erstellen, werden zwei Audioaufnahmen in das Modell eingespeist, wobei die Stimme aus der zweiten Aufnahme in die erste umgewandelt wird. Der Inhalts-Encoder wird verwendet, um zu bestimmen, <strong>was<\/strong> aus der ersten Aufnahme gesagt wurde, und der Sprecher-Encoder wird verwendet, um die Hauptmerkmale der Stimme aus der zweiten Aufnahme zu extrahieren \u2013 d. h., <strong>wie<\/strong> die zweite Person spricht. Die komprimierten Darstellungen dessen, <strong>was<\/strong> gesagt werden soll und <strong>wie<\/strong> es gesagt wird, werden kombiniert, und das Ergebnis wird mithilfe des Decoders generiert. Das, was in der ersten Aufnahme gesagt wird, wird also von der Person aus der zweiten Aufnahme gesprochen.<\/p>\n<div id=\"attachment_30345\" style=\"width: 1288px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/07\/19110217\/audio-deepfake-technology-03.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30345\" class=\"wp-image-30345 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2023\/07\/19110217\/audio-deepfake-technology-03.jpg\" alt=\"Der Vorgang, bei dem eine Stimme als Deepfake erstellt wird.\" width=\"1278\" height=\"435\"><\/a><p id=\"caption-attachment-30345\" class=\"wp-caption-text\">Der Vorgang, bei dem eine Stimme als Deepfake erstellt wird.<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Es gibt andere Ans\u00e4tze, die Autoencoder verwenden, beispielsweise solche, die <a href=\"https:\/\/de.wikipedia.org\/wiki\/Generative_Adversarial_Networks\" target=\"_blank\" rel=\"noopener nofollow\">Generative Adversarial Networks (GAN)<\/a> oder <a href=\"https:\/\/en.wikipedia.org\/wiki\/Diffusion_model\" target=\"_blank\" rel=\"noopener nofollow\">Diffusionsmodelle <\/a>verwenden. Die Forschung zur Herstellung von Deepfakes wird insbesondere von der Filmindustrie unterst\u00fctzt. Denken Sie dar\u00fcber nach: Mit Audio- und Video-Deepfakes ist es m\u00f6glich, die Gesichter von Schauspielern in Filmen und Fernsehsendungen zu ersetzen und Filme mit synchronisierter Mimik in eine beliebige Sprache zu \u00fcberspielen.<\/p>\n<h2>Wir zeigen Ihnen, wie es funktioniert.<\/h2>\n<p>Als wir \u00fcber Deepfake-Technologien recherchierten, fragten wir uns, wie schwierig es sein k\u00f6nnte, seine eigene Stimme zu einem Deepfake zu machen. Es stellt sich heraus, dass es viele kostenlose Open-Source-Tools f\u00fcr die Sprachkonvertierung gibt, aber es ist nicht so einfach, damit ein qualitativ hochwertiges Ergebnis zu erzielen. Es erfordert Programmiererfahrung in Python und gute Verarbeitungsf\u00e4higkeiten, und selbst dann ist die Qualit\u00e4t alles andere als ideal. Neben Open Source gibt es auch propriet\u00e4re und kostenpflichtige L\u00f6sungen.<\/p>\n<p>Anfang 2023 hat Microsoft beispielsweise einen Algorithmus <a href=\"https:\/\/arstechnica.com\/information-technology\/2023\/01\/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio\/\" target=\"_blank\" rel=\"noopener nofollow\">angek\u00fcndigt<\/a>, der eine menschliche Stimme basierend auf einem nur drei Sekunden langen Audiobeispiel reproduzieren kann! Dieses Modell funktioniert auch mit mehreren Sprachen, sodass Sie sich sogar selbst in einer Fremdsprache sprechen h\u00f6ren k\u00f6nnen. All dies sieht vielversprechend aus, ist aber bisher nur im Forschungsstadium. Mit der ElevenLabs-Plattform <a href=\"https:\/\/www.theverge.com\/2023\/1\/31\/23579289\/ai-voice-clone-deepfake-abuse-4chan-elevenlabs\" target=\"_blank\" rel=\"noopener nofollow\">k\u00f6nnen Benutzer<\/a> jedoch m\u00fchelos Sprach-Deepfakes erstellen: Laden Sie einfach eine Audioaufnahme der Stimme und der zu sprechenden W\u00f6rter hoch und fertig. Sobald sich das herausstellte, begannen die Leute nat\u00fcrlich auf verschiedene Weise mit dieser Technologie zu spielen.<\/p>\n<h2>Hermines Kampf und eine \u00fcberm\u00e4\u00dfig vertrauensvolle Bank<\/h2>\n<p>In voller \u00dcbereinstimmung mit <a href=\"https:\/\/de.wikipedia.org\/wiki\/Godwin%E2%80%99s_law\" target=\"_blank\" rel=\"noopener nofollow\">Godwins Gesetz,<\/a> wurde Emma Watson gezwungen<a href=\"https:\/\/www.vice.com\/en\/article\/dy7mww\/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs\" target=\"_blank\" rel=\"noopener nofollow\">, Mein Kampf zu lesen<\/a>, und ein anderer Benutzer <a href=\"https:\/\/www.vice.com\/en\/article\/dy7axa\/how-i-broke-into-a-bank-account-with-an-ai-generated-voice\" target=\"_blank\" rel=\"noopener nofollow\">nutzte<\/a> die Technologie von ElevenLabs, um sein eigenes Bankkonto zu \u201ehacken\u201c. Klingt gruselig? Es tut uns weh \u2013 vor allem, wenn man die beliebten Horrorgeschichten \u00fcber Betr\u00fcger hinzuf\u00fcgt, die am Telefon Stimmproben sammeln, indem sie Leute dazu bringen, \u201eJa\u201c oder \u201eBest\u00e4tigung\u201c zu sagen, die sich als Bank, Regierungsbeh\u00f6rde oder Meinungsforschungsinstitut ausgeben, und dann mithilfe der Sprachautorisierung Geld stehlen.<\/p>\n<p>Aber in Wirklichkeit ist es nicht so schlimm. Erstens dauert die Erstellung einer k\u00fcnstlichen Stimme in ElevenLabs etwa f\u00fcnf Minuten, sodass ein einfaches \u201eJa\u201c nicht ausreicht. Zweitens wissen auch Banken von diesen Betr\u00fcgereien, so dass die Stimme nur verwendet werden kann, um bestimmte Vorg\u00e4nge auszul\u00f6sen, die nicht mit dem Transfer von Geldern zusammenh\u00e4ngen (z. B. um den Kontostand zu \u00fcberpr\u00fcfen). So kann also kein Geld gestohlen werden.<\/p>\n<p>ElevenLabs hat schnell auf das Problem reagiert, indem es die Regeln des Dienstes umgeschrieben hat, indem es freien (d. h. anonymen) Nutzern verbietet, Deepfakes auf der Grundlage ihrer eigenen hochgeladenen Stimmen zu erstellen, und indem es Konten mit Beschwerden \u00fcber \u201eanst\u00f6\u00dfige Inhalte\u201c sperrt.<\/p>\n<p>Diese Ma\u00dfnahmen k\u00f6nnen zwar n\u00fctzlich sein, l\u00f6sen jedoch nicht das Problem, dass Sprach-Deepfakes f\u00fcr verd\u00e4chtige Zwecke verwendet werden.<\/p>\n<h2>Wie sonst werden Deepfakes f\u00fcr Betr\u00fcgereien verwendet<\/h2>\n<p>Die Deepfake-Technologie an sich ist harmlos, aber in den H\u00e4nden von Betr\u00fcgern kann sie zu einem gef\u00e4hrlichen Werkzeug werden, das viele M\u00f6glichkeiten f\u00fcr T\u00e4uschung, Diffamierung oder Desinformation bietet. Gl\u00fccklicherweise gab es keine massenhaften F\u00e4lle von Betrug mit Stimmver\u00e4nderung, aber es gab mehrere bekannte F\u00e4lle mit Sprach-Deepfakes.<\/p>\n<p>Im Jahr 2019 nutzten Betr\u00fcger diese Technologie, um ein <a href=\"https:\/\/www.wsj.com\/articles\/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402\" target=\"_blank\" rel=\"noopener nofollow\">britisches Energieunternehmen zu betr\u00fcgen<\/a>. In einem Telefongespr\u00e4ch gab der Betr\u00fcger vor, der Gesch\u00e4ftsf\u00fchrer der deutschen Muttergesellschaft des Unternehmens zu sein, und forderte eine dringende \u00dcberweisung von 220.000 Euro auf das Konto eines bestimmten Zulieferunternehmens. Nach der Zahlung rief der Betr\u00fcger noch zweimal an \u2013 das erste Mal, um das britische B\u00fcropersonal zu beruhigen und mitzuteilen, dass die Muttergesellschaft bereits eine R\u00fcckerstattung gesendet hatte, und das zweite Mal, um eine weitere \u00dcberweisung zu beantragen. Alle drei Male war sich der britische CEO absolut sicher, dass er mit seinem Chef sprach, da er sowohl seinen deutschen Akzent als auch seinen Tonfall und seine Sprechweise erkannte. Die zweite \u00dcberweisung wurde nur deshalb nicht get\u00e4tigt, weil der Betr\u00fcger einen Fehler gemacht und von einer \u00f6sterreichischen statt einer deutschen Nummer angerufen hatte, was die britische CEO misstrauisch machte.<\/p>\n<p>Ein Jahr sp\u00e4ter, im Jahr 2020, nutzten Betr\u00fcger Deepfakes, um bis zu 35.000.000 US-Dollar von einem namentlich nicht genannten japanischen Unternehmen zu <a href=\"https:\/\/www.forbes.com\/sites\/thomasbrewster\/2021\/10\/14\/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions\/?sh=42bdebd47559\" target=\"_blank\" rel=\"noopener nofollow\">stehlen<\/a> (der Name des Unternehmens und die Gesamtmenge des Diebesguts wurden bei den Ermittlungen nicht bekannt gegeben).<\/p>\n<p>Es ist nicht bekannt, mit welchen L\u00f6sungen (Open Source, kostenpflichtig oder sogar ihre eigenen) die Betr\u00fcger Stimmen vort\u00e4uschen, aber in beiden F\u00e4llen litten die Unternehmen eindeutig \u2013 stark \u2013 unter dem Deepfake-Betrug.<\/p>\n<h2>Was kommt als n\u00e4chstes?<\/h2>\n<p>\u00dcber die Zukunft von Deepfakes gehen die Meinungen auseinander. Derzeit befindet sich der Gro\u00dfteil dieser Technologie in den H\u00e4nden gro\u00dfer Unternehmen und ist f\u00fcr die \u00d6ffentlichkeit nur begrenzt verf\u00fcgbar. Aber wie die Geschichte der viel popul\u00e4reren generativen Modelle wie <a href=\"https:\/\/openai.com\/dall-e-2\/\" target=\"_blank\" rel=\"noopener nofollow\">DALL-E<\/a> , <a href=\"https:\/\/www.midjourney.com\/\" target=\"_blank\" rel=\"noopener nofollow\">Midjourney<\/a> und <a href=\"https:\/\/stability.ai\/blog\/stable-diffusion-announcement\" target=\"_blank\" rel=\"noopener nofollow\">Stable Diffusion<\/a> zeigt, und noch mehr mit <a href=\"https:\/\/en.wikipedia.org\/wiki\/Large_language_model\" target=\"_blank\" rel=\"noopener nofollow\">gro\u00dfen Sprachmodellen<\/a> (ChatGPT), k\u00f6nnten \u00e4hnliche Technologien in absehbarer Zeit in der \u00f6ffentlichen Dom\u00e4ne erscheinen. Dies wird durch einen k\u00fcrzlich <a href=\"https:\/\/www.semianalysis.com\/p\/google-we-have-no-moat-and-neither\" target=\"_blank\" rel=\"noopener nofollow\">durchgesickerten<\/a> internen Google-Briefwechsel best\u00e4tigt, in dem Vertreter des Internetgiganten bef\u00fcrchten, dass sie das Rennen um die KI gegen offene L\u00f6sungen verlieren werden. Dies wird offensichtlich dazu f\u00fchren, dass Sprach-Deepfakes \u2013 auch f\u00fcr Betrug \u2013 zunehmen werden.<\/p>\n<p>Der vielversprechendste Schritt in der Entwicklung von Deepfakes ist die Generierung in Echtzeit, die f\u00fcr ein explosionsartiges Wachstum von Deepfakes (und darauf basierenden Betrug) sorgt. K\u00f6nnen Sie sich einen <a href=\"https:\/\/github.com\/iperov\/DeepFaceLive\" target=\"_blank\" rel=\"noopener nofollow\">Videoanruf<\/a> mit einer Person vorstellen, deren Gesicht und Stimme v\u00f6llig falsch sind? <a href=\"https:\/\/blog.metaphysic.ai\/future-autoencoder-deepfakes\/\" target=\"_blank\" rel=\"noopener nofollow\">Diese<\/a> Datenverarbeitung erfordert jedoch enorme Ressourcen, die nur gro\u00dfen Unternehmen zur Verf\u00fcgung stehen, sodass die besten Technologien privat bleiben und Betr\u00fcger nicht mit den Profis mithalten k\u00f6nnen. Die Qualit\u00e4tsleiste hilft den Benutzern auch dabei, F\u00e4lschungen leicht zu erkennen.<\/p>\n<h2>Empfohlene Schutzma\u00dfnahmen<\/h2>\n<p>Zur\u00fcck zu unserer ersten Frage: K\u00f6nnen wir der Stimme vertrauen, die wir h\u00f6ren (d. h., wenn es nicht gerade die Stimme in unserem Kopf ist)? Nun, es ist wahrscheinlich \u00fcbertrieben, wenn wir st\u00e4ndig paranoid sind und uns geheime Codew\u00f6rter ausdenken, die wir mit Freunden und Familie verwenden k\u00f6nnen \u2013 in ernsteren Situationen kann eine solche Paranoia jedoch angebracht sein. Wenn sich alles nach einem pessimistischen Szenario entwickelt, k\u00f6nnte sich die Deepfake-Technologie in den H\u00e4nden von Betr\u00fcgern in Zukunft zu einer beeindruckenden Waffe entwickeln, aber es bleibt noch Zeit, sich vorzubereiten und zuverl\u00e4ssige Methoden zum F\u00e4lschungsschutz zu entwickeln: Es gibt bereits eine Menge <a href=\"https:\/\/arxiv.org\/abs\/2005.08781\" target=\"_blank\" rel=\"noopener nofollow\">Forschung<\/a> \u00fcber Deepfakes und gro\u00dfe Unternehmen entwickeln <a href=\"https:\/\/venturebeat.com\/ai\/intel-unveils-real-time-deepfake-detector-claims-96-accuracy-rate\/\" target=\"_blank\" rel=\"noopener nofollow\">Sicherheitsl\u00f6sungen<\/a>. Tats\u00e4chlich haben wir hier bereits ausf\u00fchrlich \u00fcber M\u00f6glichkeiten zur Bek\u00e4mpfung von Video-Deepfakes <a href=\"https:\/\/www.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/34006\/\" target=\"_blank\" rel=\"noopener nofollow\">gesprochen<\/a>.<\/p>\n<p>Im Moment steht der Schutz vor KI-Fakes erst am Anfang, daher ist es wichtig zu bedenken, dass Deepfakes nur eine andere Art von fortschrittlichem Social Engineering sind. Das Risiko auf einen solchen Betrug zu sto\u00dfen ist gering, aber es ist immer noch vorhanden, also sollten Sie es wissen und im Hinterkopf behalten. Wenn Sie einen seltsamen Anruf erhalten, achten Sie auf die Tonqualit\u00e4t. Ist es unnat\u00fcrlich monoton, unverst\u00e4ndlich oder gibt es seltsame Ger\u00e4usche? \u00dcberpr\u00fcfen Sie Informationen \u00fcber andere Kan\u00e4le immer noch einmal und denken Sie daran, dass sich Betr\u00fcger am meisten auf \u00dcberraschung und Panik verlassen.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Audio-Deepfakes, die die Stimme einer beliebigen Person imitieren k\u00f6nnen, werden bereits f\u00fcr millionenschwere Betr\u00fcgereien eingesetzt. Wie werden diese Deepfakes gemacht und wie kann man sich davor sch\u00fctzen, Opfer zu werden?<\/p>\n","protected":false},"author":2738,"featured_media":30348,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2711,2287],"tags":[274,142,122,3528,1520,1518,2360,4068,645],"class_list":{"0":"post-30344","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-technology","9":"tag-bedrohungen","10":"tag-betrug","11":"tag-datenschutz","12":"tag-deepfakes","13":"tag-ki","14":"tag-kunstliche-intelligenz","15":"tag-maschinelles-lernen","16":"tag-neuronale-netze","17":"tag-technologie"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/audio-deepfake-technology\/30344\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/audio-deepfake-technology\/25887\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/audio-deepfake-technology\/21327\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/audio-deepfake-technology\/11071\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/audio-deepfake-technology\/28587\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/audio-deepfake-technology\/26223\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/audio-deepfake-technology\/26543\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/audio-deepfake-technology\/29025\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/audio-deepfake-technology\/27923\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/audio-deepfake-technology\/35694\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/audio-deepfake-technology\/11670\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/audio-deepfake-technology\/48586\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/audio-deepfake-technology\/20851\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/audio-deepfake-technology\/21555\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/audio-deepfake-technology\/34254\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/audio-deepfake-technology\/26493\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/audio-deepfake-technology\/32197\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/audio-deepfake-technology\/31880\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/deepfakes\/","name":"Deepfakes"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30344","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2738"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=30344"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30344\/revisions"}],"predecessor-version":[{"id":30350,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30344\/revisions\/30350"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/30348"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=30344"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=30344"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=30344"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}