{"id":32763,"date":"2025-10-06T11:32:51","date_gmt":"2025-10-06T09:32:51","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=32763"},"modified":"2025-10-09T13:10:29","modified_gmt":"2025-10-09T11:10:29","slug":"ai-phishing-and-scams","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/ai-phishing-and-scams\/32763\/","title":{"rendered":"Phishing und Betrug mit KI"},"content":{"rendered":"<p>KI pr\u00e4sentiert nicht nur endlos neue M\u00f6glichkeiten, sie hat auch viele neue Bedrohungen im Schlepptau. Mit generativer KI k\u00f6nnen b\u00f6swillige Akteure Deepfakes und gef\u00e4lschte Websites erstellen, Spam verschicken und sich sogar als deine Freunde und Familie ausgeben. In diesem Artikel erf\u00e4hrst du, wie neuronale Netze f\u00fcr Betrug und Phishing eingesetzt werden. Und nat\u00fcrlich geben wir Tipps, wie du dich sch\u00fctzen kannst. Weitere Details zu KI-gest\u00fctzten Phishing-Methoden findest du im vollst\u00e4ndigen Bericht auf <a href=\"https:\/\/securelist.com\/new-phishing-and-scam-trends-in-2025\/117217\/\" target=\"_blank\" rel=\"noopener\">Securelist<\/a>.<\/p>\n<h2>Pig Butchering, Catfishing und Deepfakes<\/h2>\n<p>KI-Bots k\u00f6nnen sich als echte Menschen ausgeben und werden gerne f\u00fcr Betr\u00fcgereien mit romantischem Beigeschmack verwendet. Betr\u00fcger erstellen Fantasiepersonen, um mit mehreren Opfern gleichzeitig zu kommunizieren und starke emotionale Verbindungen aufzubauen. Solche Chats k\u00f6nnen sich \u00fcber Wochen oder Monate hinziehen. Sie beginnen mit harmlosem Flirt und entwickeln sich allm\u00e4hlich zu Diskussionen \u00fcber \u201elukrative Anlagem\u00f6glichkeiten\u201c. Durch die vermeintlich pers\u00f6nliche Beziehung wird bei Opfern jeglicher Verdacht zerstreut. Das b\u00f6se Erwachen folgt aber, sobald das Opfer sein Geld in ein betr\u00fcgerisches Projekt investiert hat. Solche \u00fcblen Machenschaften sind unter dem Namen \u201ePig Butchering\u201c bekannt, das wir in einem <a href=\"https:\/\/www.kaspersky.de\/blog\/pig-butchering-crypto-investment-scam\/31013\/\" target=\"_blank\" rel=\"noopener\">anderen Artikel<\/a> ausf\u00fchrlich beschrieben haben. Fr\u00fcher gab es in S\u00fcdostasien riesige \u201eBetrugsfarmen\u201c, die Tausende von Menschen besch\u00e4ftigten. Inzwischen setzen solche Betr\u00fcgereien zunehmend auf KI.<\/p>\n<p>Dank neuronaler Netze ist auch <a href=\"https:\/\/de.wikipedia.org\/wiki\/Catfishing\" target=\"_blank\" rel=\"noopener nofollow\">Catfishing<\/a> kinderleicht geworden. Dabei erstellen Betr\u00fcger eine falsche Identit\u00e4t oder geben sich als echte Person aus. Generative neuronale Netze k\u00f6nnen heute das Aussehen, die Stimme oder den Schreibstil einer Person mit hinreichender Genauigkeit nachahmen. Ein Betr\u00fcger sammelt \u00f6ffentlich verf\u00fcgbare Informationen \u00fcber eine Person und f\u00fcttert die KI damit. Dabei kann wirklich alles n\u00fctzlich sein: Fotos, Videos, \u00f6ffentliche Postings, Kommentare, Informationen \u00fcber Verwandte, Hobbys, Alter und so weiter.<\/p>\n<p>Wenn dir also ein Familienmitglied oder Freund von einem neuen Konto aus schreibt und beispielsweise Geld leihen will, ist es wahrscheinlich gar kein Verwandter oder Freund. Wende dich in solchen F\u00e4llen am besten \u00fcber einen anderen Kanal an die echte Person. Du kannst z.\u00a0B. anrufen und direkt fragen, ob alles in Ordnung ist. Ratsam ist auch, ein paar pers\u00f6nliche Fragen zu stellen, auf die ein Betr\u00fcger im Internet oder in deinen fr\u00fcheren Nachrichten keine Antwort finden kann.<\/p>\n<p>Der \u00fcberzeugende Identit\u00e4tswechsel mit Textnachrichten ist jedoch nur ein Teil des Problems\u00a0\u2013 viel bedrohlicher sind Audio- und Video-Deepfakes. Wir haben k\u00fcrzlich dar\u00fcber berichtet, wie <a href=\"https:\/\/www.kaspersky.de\/blog\/scam-with-deepfakes-in-instagram-facebook-whatsapp\/32550\/\" target=\"_blank\" rel=\"noopener\">Betr\u00fcger in sozialen Medien Deepfakes von beliebten Bloggern und Krypto-Investoren verwenden<\/a>. Die gef\u00e4lschten Prominenten laden ihre Fans zu \u201epers\u00f6nlichen Beratungsgespr\u00e4chen\u201c oder \u201eexklusiven Investment-Chats\u201c ein oder <a href=\"https:\/\/www.kaspersky.de\/blog\/how-to-protect-your-account-from-sim-swapping\/32140\/\" target=\"_blank\" rel=\"noopener\">versprechen Geldpreise und teure Werbegeschenke<\/a>.<\/p>\n<div id=\"attachment_32765\" style=\"width: 559px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2025\/10\/06081414\/ai-phishing-and-scams-1.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-32765\" class=\"wp-image-32765 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2025\/10\/06081414\/ai-phishing-and-scams-1.jpg\" alt=\"Und warum sollte Jennifer Aniston kein MacBook verschenken?\" width=\"549\" height=\"1074\"><\/a><p id=\"caption-attachment-32765\" class=\"wp-caption-text\">Und warum sollte Jennifer Aniston kein MacBook verschenken?<\/p><\/div>\n<blockquote><p>Social Media ist jedoch nicht der einzige Ort, an dem sich Deepfakes pudelwohl f\u00fchlen. Sie werden auch f\u00fcr Video- und Audioanrufe in Echtzeit generiert. Anfang des Jahres <a href=\"https:\/\/nypost.com\/2025\/07\/17\/us-news\/florida-woman-tricked-into-forking-over-15k-by-ai-cloning-her-daughters-voice-i-know-my-daughters-cry\/\" target=\"_blank\" rel=\"noopener nofollow\">verlor<\/a> eine Frau aus Florida 15.000 US-Dollar. Sie war davon \u00fcberzeugt, mit ihrer Tochter zu sprechen, die angeblich einen Autounfall hatte. Die Betr\u00fcger verwendeten einen realistischen Deepfake der Stimme ihrer Tochter und lie\u00dfen sie sogar weinen\u00a0\u2013 alles t\u00e4uschend echt.<\/p>\n<p>Experten von Kaspersky GReAT haben im Darkweb Anzeigen gefunden, die Video- und Audio-Deepfakes in Echtzeit anbieten. Der Preis h\u00e4ngt von der Qualit\u00e4t und L\u00e4nge der Inhalte ab. Sprach-Deepfakes gibt es schon ab 30\u00a0US-Dollar, Videos ab 50\u00a0Dollar. Noch vor wenigen Jahren waren solche Dienste fast unerschwinglich (<a href=\"https:\/\/www.kaspersky.com\/about\/press-releases\/20k-for-a-one-minute-video-kaspersky-explores-the-darknet-deepfake-industry\" target=\"_blank\" rel=\"noopener nofollow\">bis zu 20.000\u00a0US-Dollar pro Minute<\/a>) und eine Echtzeitgenerierung gab es damals noch gar nicht.<\/p>\n<p>Heutzutage gibt es alles, was das Herz begehrt: Gesichtertausch in Echtzeit f\u00fcr Videokonferenzen oder Messaging-Apps, Gesichtertausch zur Identit\u00e4ts\u00fcberpr\u00fcfung oder den Austausch eines Bildes auf einem Telefon oder anderen virtuellen Ger\u00e4ten.<\/p>\n<p>Betr\u00fcger bieten auch Tools f\u00fcr die Lippensynchronisierung gesprochener Texte in Videos an (sogar in Fremdsprachen) sowie Tools, mit denen Stimmen in Ton und Tonlage an die gew\u00fcnschte Emotion angepasst werden k\u00f6nnen.<\/p>\n<p>Unsere Experten vermuten jedoch, dass viele dieser Darkweb-Anzeigen selbst Betrug sind. Sie sollen andere M\u00f6chtegern-Betr\u00fcger dazu bringen, f\u00fcr Dienste zu bezahlen, die es in Wirklichkeit gar nicht gibt.<\/p><\/blockquote>\n<h2>So kannst du dich sch\u00fctzen<\/h2>\n<ul>\n<li>Hast du Online-Bekannte, die du noch nie pers\u00f6nlich getroffen hast? Dann solltest du ihnen nicht vertrauen. Vielleicht chattest du schon eine ganze Weile mit einer fremden Person und ihr versteht euch einfach super. Besondere Vorsicht ist angesagt, wenn es um Krypto, Investitionen oder andere Geldanlagen geht.<\/li>\n<li>Solche Angebote k\u00f6nnen unglaublich attraktiv klingen, besonders wenn sie von Prominenten oder gro\u00dfen Unternehmen stammen und \u00fcber Social Media geteilt werden. Schau immer auf ihren offiziellen Accounts nach, um die Informationen genau zu \u00fcberpr\u00fcfen. Wenn dir ein Werbegeschenk oder ein Geldpreis angeboten wird und du pl\u00f6tzlich aufgefordert wirst, eine Geb\u00fchr, Steuern oder Versandkosten zu zahlen oder deine Kreditkartendaten einzugeben, solltest du die Unterhaltung sofort abbrechen!<\/li>\n<li>Wenn du von Freunden oder Verwandten mit ungew\u00f6hnlichen Anfragen kontaktiert wirst, wende dich auf einem anderen Weg, z.\u00a0B. per Telefon, an sie. Frage sicherheitshalber nach etwas, \u00fcber das ihr euch beim letzten pers\u00f6nlichen Treffen unterhalten habt. Mit engen Freunden und Verwandten kannst du im Voraus ein Codewort vereinbaren, das sonst niemand kennt. Wenn ihr euren Standort miteinander teilt, schau nach, wo sicher die Person gerade befindet und lass dir den Standort best\u00e4tigen. Und Vorsicht bei Manipulationsversuchen durch k\u00fcnstlich erzeugte \u201eEile\u201c. Der Betr\u00fcger oder die KI erz\u00e4hlen dir m\u00f6glicherweise, dass es dringend ist und dass sie keine Zeit f\u00fcr \u00fcberfl\u00fcssige Fragen haben.<\/li>\n<li>Wenn du an der Echtheit eines Videoanrufs zweifelst, bitte die Person, den Kopf zur Seite zu drehen oder eine schwierige Handbewegung auszuf\u00fchren. Normalerweise scheitern Deepfakes an solchen Anfragen oder sie zeigen etwas Absurdes an. Weitere Warnsignale sind, wenn die Person nicht zwinkert oder die Lippenbewegungen oder der Gesichtsausdruck seltsam erscheinen.<\/li>\n<li>F\u00fcr Bankkartennummern, Einmalcodes oder andere vertrauliche Informationen gilt: Niemals diktieren oder auf andere Weise weitergeben!<\/li>\n<\/ul>\n<div id=\"attachment_32766\" style=\"width: 1056px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2025\/10\/06081529\/ai-phishing-and-scams-2-2.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-32766\" class=\"size-full wp-image-32766\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2025\/10\/06081529\/ai-phishing-and-scams-2-2.jpg\" alt=\"So erkennst du Video-Deepfakes\" width=\"1046\" height=\"554\"><\/a><p id=\"caption-attachment-32766\" class=\"wp-caption-text\">Ein Beispiel f\u00fcr einen Deepfake, der \u201eversagt\u201c, wenn der Kopf gedreht wird. <a href=\"https:\/\/fortune.com\/2022\/09\/03\/live-deepfakes-detect-methods-zoom-fraud\/\" target=\"_blank\" rel=\"noopener nofollow\">Quelle<\/a><\/p><\/div>\n<h2>Automatisierte Anrufe<\/h2>\n<p>Diese Betrugsmethode ist besonders effizient, da kein direktes Gespr\u00e4ch mit potenziellen Opfern stattfindet. Betr\u00fcger verwenden KI, um automatisierte Anrufe von Banken, Mobilfunkanbietern oder Beh\u00f6rden zu f\u00e4lschen. Am anderen Ende der Leitung spricht ein Bot, der sich als Support-Mitarbeiter ausgibt. Da viele seri\u00f6se Unternehmen automatisierte Sprachassistenten verwenden, erregen solche Anrufe keinen Verdacht. Allerdings rufen echte Unternehmen niemals an, um dir mitzuteilen, dass dein Konto gehackt wurde, oder um nach einem Best\u00e4tigungscode zu fragen.<\/p>\n<p>Bei solchen Anruf hei\u00dft es: Ruhe bewahren! Lass dich durch Behauptungen wie \u201eIhr Konto wurde gehackt\u201c oder \u201eIhr Geld wurde gestohlen\u201c nicht in Panik versetzen. Leg einfach auf, schau auf der Website des Unternehmens nach der offiziellen Telefonnummer und erkundige dich dort, was los ist. Beachte, dass an aktuellen Betrugsmethoden mehrere B\u00f6sewichte beteiligt sein k\u00f6nnen, die dich nacheinander kontaktieren. Sie k\u00f6nnen von verschiedenen Nummern aus anrufen, SMS-Nachrichten senden und sich als Bankangestellte, Beamte oder Polizisten ausgeben.<\/p>\n<h2>Phishing in Chatbots und KI-Agenten<\/h2>\n<p>Anstelle der bekannten Suchmaschinen werden heutzutage immer h\u00e4ufiger Chatbots (ChatGPT, Gemini usw.) verwendet. Welche Risiken gibt es dabei? Gro\u00dfe Sprachmodelle werden mit Benutzerdaten trainiert, und es gab schon F\u00e4lle, in denen popul\u00e4re Chatbots <a href=\"https:\/\/www.netcraft.com\/blog\/large-language-models-are-falling-for-phishing-scams\" target=\"_blank\" rel=\"noopener nofollow\">den Nutzern Phishing-Websites vorgeschlagen haben<\/a>. Wenn KI-Agenten die Websuche einsetzen, wird eine Verbindung zu Suchmaschinen hergestellt, und in den Ergebnissen k\u00f6nnen auch Phishing-Links auftauchen.<\/p>\n<p>Bei einem <a href=\"https:\/\/guard.io\/labs\/scamlexity-we-put-agentic-ai-browsers-to-the-test-they-clicked-they-paid-they-failed\" target=\"_blank\" rel=\"noopener nofollow\">k\u00fcrzlich durchgef\u00fchrten Experiment<\/a> wurde der KI-Agent im Comet Browser von Perplexity mit einer gef\u00e4lschten E-Mail-Nachricht \u00fcberlistet. Die E-Mail stammte angeblich von einem Investmentmanager von Wells Fargo, einer der gr\u00f6\u00dften Banken der Welt. Die Forscher verschickten die E-Mail von einem frisch angelegten Konto bei Proton Mail. Die Nachricht enthielt einen Link zu einer echten Phishing-Seite, die seit mehreren Tagen aktiv war, aber von Google Safe Browsing noch nicht als b\u00f6sartig markiert worden war. Der KI-Agent durchsuchte den Posteingang des Nutzers und markierte die Nachricht als \u201eAnfrage von deiner Bank\u201c. Ohne weitere \u00dcberpr\u00fcfung folgte der Agent dem Phishing-Link, \u00f6ffnete die gef\u00e4lschte Anmeldeseite, forderte den Nutzer auf, seine Anmeldedaten einzugeben und half sogar dabei, das Formular auszuf\u00fcllen! Die KI verb\u00fcrgte sich sozusagen f\u00fcr die Phishing-Seite. Der Nutzer hatte weder die E-Mail-Nachricht des verd\u00e4chtigen Absenders noch den Phishing-Link gesehen. Stattdessen leitete ihn der hilfsbereite KI-Assistent direkt auf die Seite, auf der seine Anmeldedaten abgefragt wurden.<\/p>\n<p>Im selben Experiment verwendeten die Forscher die KI-basierte Webentwicklungsplattform <a href=\"https:\/\/lovable.dev\/\" target=\"_blank\" rel=\"noopener nofollow\">Loveable<\/a> und erstellten damit eine gef\u00e4lschte Website, die einen Walmart-Shop nachahmte. Anschlie\u00dfend besuchten sie diese Website im Comet Browser\u00a0\u2013 wie es auch ein argloser Nutzer leicht tun k\u00f6nnte, wenn er auf einen Phishing-Link oder eine Phishing-Anzeige hereinf\u00e4llt. Sie baten den KI-Agenten, eine Apple Watch zu kaufen. Der Agent analysierte die Fake-Website, fand ein \u201eSchn\u00e4ppchen\u201c, legte die Uhr in den Warenkorb, gab die im Browser gespeicherte Adresse und die Bankkartendaten ein und schloss den \u201eKauf\u201c ab\u00a0\u2013 alles, ohne nach einer Best\u00e4tigung zu fragen. W\u00e4re dies eine betriebsf\u00e4hige Fake-Website gewesen, h\u00e4tte der Nutzer nicht nur Geld verloren, als Zugabe h\u00e4tten die Betr\u00fcger auch noch seine Bankdaten bekommen.<\/p>\n<p>Leider verhalten sich KI-Agenten im Internet bisher wie naive Anf\u00e4nger und fallen sehr leicht auf Social Engineering herein. Wir haben bereits ausf\u00fchrlich dar\u00fcber gesprochen, <a href=\"https:\/\/www.kaspersky.de\/blog\/ai-browser-security-privacy-risks\/32677\/\" target=\"_blank\" rel=\"noopener\">welche Risiken die KI-Integration in Browser mit sich bringt und wie sie minimiert werden k\u00f6nnen<\/a>. Nur zur Erinnerung: Damit dich ein leichtgl\u00e4ubiger Assistent nicht in Verlegenheit bringt, solltest du alle von ihm bereitgestellten Informationen kritisch pr\u00fcfen, die Berechtigungen f\u00fcr KI-Agenten einschr\u00e4nken und eine <a href=\"https:\/\/www.kaspersky.de\/premium?icid=de_bb2022-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">zuverl\u00e4ssige Sicherheitsl\u00f6sung<\/a>\u00a0installieren, die den Zugriff auf sch\u00e4dliche Websites blockiert. zuverl\u00e4ssige Sicherheitsl\u00f6sung<\/p>\n<h2>KI-generierte Phishing-Websites<\/h2>\n<p>Nachl\u00e4ssig gestaltete Phishing-Websites mit aufdringlicher Werbung geh\u00f6ren der Vergangenheit an. Heutzutage geben Betr\u00fcger ihr Bestes, um realistische F\u00e4lschungen anzufertigen. Auch Fake-Websites k\u00f6nnen das https-Protokoll verwenden, Benutzervereinbarungen und Warnungen zur Cookie-Nutzung pr\u00e4sentieren und ein annehmbares Design haben. Durch KI-gest\u00fctzte Tools ist die Erstellung solcher Websites viel g\u00fcnstiger und schneller geworden (es geht wie auf Knopfdruck). Auf Links zu solchen Websites kannst du \u00fcberall sto\u00dfen: in SMS-Nachrichten, in E-Mails, in sozialen Netzwerken oder auch in Suchergebnissen.<\/p>\n<div id=\"attachment_32767\" style=\"width: 1490px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2025\/10\/06081628\/ai-phishing-and-scams-3-1.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-32767\" class=\"size-full wp-image-32767\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2025\/10\/06081628\/ai-phishing-and-scams-3-1.png\" alt=\"Formulare zur Eingabe von Anmeldeinformationen auf betr\u00fcgerischen Websites, die Tesla und Pantene imitieren\" width=\"1480\" height=\"786\"><\/a><p id=\"caption-attachment-32767\" class=\"wp-caption-text\">Formulare zur Eingabe von Anmeldeinformationen auf betr\u00fcgerischen Websites, die Tesla und Pantene imitieren<\/p><\/div>\n<h4>So erkennst du Phishing-Websites<\/h4>\n<ul>\n<li>\u00dcberpr\u00fcfe URL, Titel und Inhalt auf Tippfehler.<\/li>\n<li>Schau nach, wie lange die Dom\u00e4ne der Website bereits registriert ist. Dies kannst du <a href=\"https:\/\/www.whatsmydns.net\/domain-age\" target=\"_blank\" rel=\"noopener nofollow\">hier<\/a> \u00fcberpr\u00fcfen.<\/li>\n<li>Achte auf die Sprache. Wird versucht, dir Angst zu machen oder dich zu beschuldigen? Versucht jemand, dich anzulocken oder dich zu bestimmten Aktionen zu dr\u00e4ngen? Jegliche emotionale Manipulation ist ein deutliches Warnsignal.<\/li>\n<li>Aktiviere die <a href=\"https:\/\/support.kaspersky.com\/de\/kaspersky-for-windows\/21.22\/70888\" target=\"_blank\" rel=\"noopener\">Link-Untersuchung<\/a> in <a href=\"https:\/\/www.kaspersky.de\/home-security?icid=de_kdailyplacehold_acq_ona_smm__onl_b2c_blo_lnk_sm-team______\" target=\"_blank\" rel=\"noopener\">einer unserer Sicherheitsl\u00f6sungen<\/a>.<\/li>\n<li>Wenn der Browser vor einer unsicheren Verbindung warnt, verlasse die Website. Legitime Websites verwenden das https-Protokoll.<\/li>\n<li>Suche im Internet nach dem Namen der Website und vergleiche die angegebene URL mit der URL aus den Suchergebnissen. Vorsicht! M\u00f6glicherweise zeigen Suchmaschinen gesponserte Phishing-Links ganz oben auf der Ergebnisseite an. Stelle sicher, dass es neben dem Link kein Label mit der Aufschrift \u201eAnzeige\u201c oder \u201eGesponsert\u201c gibt.<\/li>\n<\/ul>\n<blockquote><p>In den folgenden Artikeln erf\u00e4hrst du mehr \u00fcber den sicheren Einsatz von KI:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/scam-with-deepfakes-in-instagram-facebook-whatsapp\/32550\/\" target=\"_blank\" rel=\"noopener\">Investitionsbetrug in den sozialen Netzwerken von Meta<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/fake-bank-payments\/32271\/\" target=\"_blank\" rel=\"noopener\">Wer hat noch nicht, wer will nochmal?<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/trojans-disguised-as-deepseek-grok-clients\/31999\/\" target=\"_blank\" rel=\"noopener\">Trojaner-Karneval\u00a0\u2013 falsche DeepSeek- und Grok-Clients<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/how-deepfakes-threaten-kyc\/31542\/\" target=\"_blank\" rel=\"noopener\">Wie Betr\u00fcger mithilfe von Deepfakes die \u00dcberpr\u00fcfung der Kundenidentit\u00e4t umgehen<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/audio-deepfake-technology\/30344\/\" target=\"_blank\" rel=\"noopener\">Trauen Sie Ihren Ohren nicht: Sprach-Deepfakes<\/a><\/li>\n<\/ul>\n<\/blockquote>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>K\u00fcnstliche Intelligenz er\u00f6ffnet Betr\u00fcgern v\u00f6llig neue M\u00f6glichkeiten \u2013 Deepfakes, schnelle Einrichtung von Phishing-Websites und betr\u00fcgerische E-Mail-Kampagnen sind nur einige Beispiele. Wir sehen uns die neuesten KI-Trends f\u00fcr Phishing und Betrug an \u2013 und wie du dich davor sch\u00fctzen kannst.<\/p>\n","protected":false},"author":2679,"featured_media":32764,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[6],"tags":[274,142,3528,1520,53],"class_list":{"0":"post-32763","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-news","8":"tag-bedrohungen","9":"tag-betrug","10":"tag-deepfakes","11":"tag-ki","12":"tag-phishing"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-phishing-and-scams\/32763\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-phishing-and-scams\/29593\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-phishing-and-scams\/24689\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/ai-phishing-and-scams\/12864\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-phishing-and-scams\/29518\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-phishing-and-scams\/28613\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-phishing-and-scams\/31490\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ai-phishing-and-scams\/30144\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-phishing-and-scams\/40564\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-phishing-and-scams\/13848\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-phishing-and-scams\/54445\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-phishing-and-scams\/23254\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ai-phishing-and-scams\/24335\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-phishing-and-scams\/29682\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-phishing-and-scams\/35445\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-phishing-and-scams\/35073\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/phishing\/","name":"phishing"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/32763","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2679"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=32763"}],"version-history":[{"count":5,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/32763\/revisions"}],"predecessor-version":[{"id":32785,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/32763\/revisions\/32785"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/32764"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=32763"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=32763"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=32763"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}