Zum Hauptinhalt springen

KI-Stimme und Deepfake-Betrug: Warum Sie einer vertrauten Stimme nicht mehr vertrauen können

Erwachsener in Kleidung mit verdecktem Gesicht, der ein Mobiltelefon für betrügerische Aktivitäten verwendet

Es klingt wie eine Science-Fiction-Trophäe, aber die Technologie ist gerade hier: KI-Stimmenbetrug nutzt künstliche Intelligenz, um echte Stimmen zu kopieren und sich als Personen auszugeben, denen Sie vertrauen. Dies führt zu einem beängstigenden Szenario, in dem eine vertraute Stimme kein Beweis mehr für die Echtheit eines Anrufs ist.

Betrug mit KI-Sprachspoofing basiert nicht darauf, dass Geräte gehackt oder Sicherheitssysteme beschädigt werden. Die Betrüger verwenden Dringlichkeit und Druck, um Menschen zum Handeln zu bewegen, bevor sie Zeit haben, das Gehörte in Frage zu stellen. Anrufe können ruhig klingen oder sehr emotional und aufdringlich sein.

Die sicherste Reaktion ist einfach. Beenden Sie den Anruf und überprüfen Sie die Anfrage mithilfe einer vertrauenswürdigen Methode selbstständig. Mit ein paar Gewohnheiten und einfachen Werkzeugen ist es möglich, das Risiko, auf diese Betrügereien hereinzufallen, ohne technische Vorkenntnisse zu verringern.

Was Sie wissen müssen:

  • KI-Stimmenbetrug verwenden geklonte oder Deepfake -Stimmen, um sich als Personen auszugeben, denen Sie vertrauen. Eine vertraute Stimme ist also kein Beweis mehr für die Echtheit eines Anrufs.
  • Diese Betrügereien basieren auf Dringlichkeit und emotionalem Druck und nicht auf technischem Hacker-Angriff, um Sie daran zu hindern, Anfragen zu überprüfen.
  • Notfälle in der Familie und Nachahmung von Autoritäten (Vorgesetzte und Mitarbeiter des Unternehmens) sind die am häufigsten vorkommenden Szenarien in der Praxis.
  • Die sicherste Reaktion besteht darin, den Anruf zu beenden und mithilfe der vertrauenswürdigen Kontaktdaten unabhängig zu überprüfen.
  • Einfache Gewohnheiten wie die Überprüfung und die Verwendung von Tools zur Anruffilterung können das Risiko erheblich reduzieren.

Was ist ein KI-Sprachbetrug?

Ein KI-Sprachbetrug ist ein Betrug, bei dem Angreifer mithilfe künstlicher Intelligenz die Stimme einer Person generieren oder klonen und sie während eines Telefonats oder einer Sprachnachricht verwenden, um jemanden zu einer bestimmten Handlung zu verleiten.

Diese Betrügereien gehören zur weiteren Kategorie des Phishing , die oft als Sprach-Phishing oder Vishing bezeichnet wird. Anstelle von gefälschten E-Mails oder Nachrichten verlassen sich Betrüger auf realistisch klingende Stimmen, um Vertrauen zu schaffen und Menschen unter Druck zu setzen, schnell zu handeln.

Diese Art der Cyberkriminalität hat bereits massive Auswirkungen auf bestimmte Branchen , insbesondere in Bereichen, in denen telefonische Anfragen, Genehmigungen oder Support-Interaktionen üblich sind.

Betrüger können sich als Familienmitglied ausgeben und um dringende Hilfe oder Geld bitten. Sie können vorgeben, ein Manager zu sein, der eine Zahlung anfordert, oder ein Support-Mitarbeiter, der behauptet, dass ein Problem mit einem Konto besteht. Die Stimme klingt echt, weil sie geschickt aus Aufnahmen einer realen Person aufgebaut ist.

KI-Sprachbetrug ist zielgerichtet und interaktiv. Der Anrufer kann während des Anrufs auf natürliche Weise reagieren und den Tonfall anpassen. Es kann dazu führen, dass sich die Situation real und persönlich anfühlt, anstatt wie ein alter Robocaller automatisiert zu sein.

Was ist eine Deepfake-Stimme und wie wird sie für betrügerische Zwecke verwendet?

Eine Deepfake-Stimme ist eine KI-generierte Kopie der Stimme einer echten Person, die als überzeugender Betrug verwendet werden kann. Diese Technologie wird verwendet, um sich als eine Person auszugeben, die das Opfer bereits kennt oder der es vertraut.

Viele von uns verwenden jetzt KI-Assistenten, die zeigen, wie effektiv synthetisierte Stimmen sein können. Die Dinge werden immer überzeugender, sodass die Grenzen der Realität verschwimmen können.

Deepfake-Stimmen sind ein Werkzeug für KI-Stimmenbetrug. Sie werden oft mit gestohlenen persönlichen Daten kombiniert, damit sich Anrufe glaubwürdig und dringend anfühlen. Aus diesem Grund kann die Anfrage vernünftig oder realistisch klingen.

Viele Leute verbinden Deepfakes eher mit gefälschten Videos im Internet als mit Sprachanrufen. Diese Erwartungslücke nutzen Betrüger aus. Die Menschen sind sich der Risiken möglicherweise nicht bewusst. Wenn Ihnen eine Stimme bekannt vorkommt, ist es wahrscheinlicher, dass Benutzer schnell reagieren, ohne zur Bestätigung anzuhalten.

Wie klonen Betrüger die Stimme einer Person?

Betrüger klonen Stimmen, indem sie kurze Audiobeispiele sammeln und mithilfe von KI-Tools den Klang einer Person nachbilden. Sie benötigen möglicherweise nur wenige Sekunden, um eine klare Sprache zu sprechen, um die Stimme und die Intonation einer Person ungefähr zu verstehen.

Sprachbeispiele können manchmal leicht zu finden sein. Öffentliche Videos in sozialen Medien und sogar kurze Telefongespräche können genug Material liefern. Das Audio wird in Tools zum Klonen von Stimmen eingespeist, die den Tonfall und die Aussprache einer Person lernen. Überlegen Sie, ob Sie in den sozialen Medien Audioclips haben, die möglicherweise von jemandem mitgenommen und verwendet werden könnten.

Modernes Klonen von Stimmen ist schnell und skalierbar. Was früher sehr hohe Fachkompetenzen erforderte, kann heute mit den gängigen Tools schnell erledigt werden. Dies ist besorgniserregend, da es Betrügern ermöglicht, überzeugende Stimmen zu erstellen und diese für viele Anrufe oder Ziele wiederzuverwenden.

Warum sind KI-Sprachbetrug so überzeugend?

KI-Sprachbetrug ist überzeugend, da das Hören einer vertrauten Stimme sofort ein hohes Maß an Vertrauen vermittelt. In emotionalen oder dringenden Situationen erwarten die Menschen keine Täuschung.

Betrüger machen oft Druck, indem sie Notfälle oder zeitkritische Probleme angeben, beispielsweise in einer Stadt oder sogar im Ausland festsitzen, ohne die Mittel, um zurückzukommen. Panik- und Dringlichkeitsgefühle verringern die Wahrscheinlichkeit, dass jemand innehält und das Gehörte in Frage stellt, selbst wenn sich die Bitte ungewöhnlich oder untypisch anfühlt.

Aus diesem Grund können selbst sicherheitsbewusste Personen ausgetrickst werden. Der Betrug beruht nicht auf technischen Schwächen. Es nutzt normale menschliche Reaktionen auf Stress und Emotionen aus.

Schutz vor KI-Sprachbetrug

Schützen Sie Ihre Geräte mit Kaspersky Premium. Verhindern Sie unbefugten Zugriff, schützen Sie Ihre Daten und schützen Sie Ihr System.

Premium kostenlos testen

Was sind die häufigsten Szenarien für KI-Sprachbetrug?

Die meisten KI-Sprachbetrugsfälle folgen vertrauten Situationen, in denen die Leute dringende Anrufe erwarten und den Druck verspüren, schnell zu reagieren. Dies erschwert die Verifizierung oder fühlt sich im Moment sogar überflüssig an.

Familien-Notfall-Stimmen-Betrug

Bei Familien-Notfall-Stimmen-Betrug werden geklonte Stimmen verwendet, um vorgetäuschte Probleme zu erstellen, an denen Verwandte und Menschen beteiligt sind, die Ihnen am wichtigsten sind.

Opfer berichten oft von Anrufen, in denen behauptet wird, dass jemand festgenommen oder verletzt wurde und dringend Geld brauche. Der Anrufer kann um Hilfe bitten oder verzweifelt klingen. Sie werden den Zuhörer wahrscheinlich auffordern, nicht aufzulegen oder jemanden zu kontaktieren, da dieser emotionale Druck dazu dient, die Überprüfung zu stoppen und die Situation geheim zu halten.

Der Betrüger kann auf eine sofortige Zahlung drängen oder eine Anweisung geben, am Telefon zu bleiben, und erklärt, warum die normalen Kontaktmethoden angeblich nicht funktionieren. Das Ziel sind Geschwindigkeit und Täuschung, nicht lange Gespräche.

Betrügereien mit Nachahmung von Arbeit und Autorität

Bei diesen Betrügereien wird mit ruhigen und selbstbewussten Stimmen, die vertraut oder professionell klingen, die Identität von Führungskräften oder Personen in offiziellen Positionen und am Arbeitsplatz nachgeahmt.

Ein vermeintliches Maß an Autorität kann manchmal die Wahrscheinlichkeit erhöhen, dass Personen den Anforderungen entsprechen. Wenn eine Anfrage von einem Vorgesetzten oder einer vertrauenswürdigen Institution stammt, ist es wahrscheinlicher, dass die Mitarbeiter den Anweisungen folgen, ohne sie zu hinterfragen. Anrufe können dringende Zahlungen oder vertrauliche Aufgaben betreffen (beides sollte als Warnsignal behandelt werden).

Diese Betrügereien betreffen sowohl private als auch geschäftliche Telefone, da Angreifer überall dort ansetzen, wo bereits Vertrauen besteht. Ein Anruf kann während der Geschäftszeiten an ein Arbeitsgerät oder außerhalb der Geschäftszeiten an ein privates Telefon gerichtet sein.

Welche Warnzeichen sollten sofort Verdacht erregen?

Ein Sprachanruf sollte Verdacht erregen, wenn er dringend oder unter Druck steht und Sie daran hindert, die Anfrage auf die gewünschte Weise zu überprüfen. Wenn der Anrufer zur Geheimhaltung drängt oder von einer Ihnen unbekannten Nummer anruft, sollten Ihre Alarmglocken läuten.

Die Person, die einen Betrug versucht, besteht möglicherweise darauf, dass Sie den Anruf geheim halten, oder sagt, dass andere Personen nicht erreichbar sind. Diese Isolation ist beabsichtigt und soll verhindern, dass die Überprüfung oder Erkenntnis dessen, was tatsächlich während des Anrufs passiert, unterbrochen wird.

Seien Sie besonders vorsichtig bei Anfragen, bei denen es um ungewöhnliche oder irreversible Zahlungsmethoden wie Geschenkkarten oder Kryptowährungen geht. Diese Anfragen dienen dazu, Gelder schnell zu überweisen und die Rückforderung zu erschweren. Das Anfordern von Geschenkgutscheinen ist ein klares Zeichen für einen Betrug.

Was können Sie tun, wenn Sie einen verdächtigen Anruf erhalten?

Am sichersten ist es, den Anruf zu beenden und Distanz zu schaffen. Jeder Anflug von Argwohn sollte Sie dazu bringen, die Verlobung abzubrechen.

Legen Sie auf. Das durchbricht den emotionalen Halt und gibt dir Zeit, klar zu denken. Bleiben Sie nicht in der Leitung, um es herauszufinden, oder stellen Sie Anschlussfragen, da Betrüger Konversationen verwenden, um ihre Geschichte anzupassen und andere Möglichkeiten zu finden, um ihre Geschichte überzeugender zu machen.

Überprüfen Sie die Anfrage mithilfe der vertrauenswürdigen Kontaktdaten eigenständig. Bestehen Sie darauf, dass Sie die Dinge über eine gespeicherte Telefonnummer oder eine bekannte E-Mail-Adresse besprechen. Vermeiden Sie es, das Gespräch fortzusetzen oder unter derselben Nummer zurückzurufen. Legale Anrufer werden die Verifizierung verstehen. Betrüger werden versuchen, dies zu verhindern.

Wie können Sie sich langfristig vor KI-Sprachbetrug schützen?

Langfristiger Schutz bedeutet, dass sowohl die Häufigkeit der Angriffe auf Sie verringert wird als auch der Erfolg für Betrüger erschwert wird.

KI-Sprachbetrug basiert auf Vertrauen und Dringlichkeit. Einfache Gewohnheiten und realistische Sicherheitsvorkehrungen tragen dazu bei, das Risiko zu senken, ohne dass sich die Art und Weise ändert, wie Sie Ihr Telefon im Alltag verwenden.

Persönliche Gewohnheiten, die Ihr Risiko verringern

Kleine Gewohnheiten können einen großen Unterschied machen. Einige Familien und enge Kontaktpersonen verwenden jetzt Codewörter für echte Notfälle. Das bedeutet, dass ein echter Anruf schnell verifiziert werden kann (nur das Codewort darf nicht preisgegeben werden).

Achten Sie auf öffentliche Sprachaufnahmen. Als Quellmaterial für das Klonen können Videos, Sprachnotizen und Mailbox-Begrüßungen verwendet werden. Sie müssen die gemeinsame Nutzung nicht vollständig vermeiden, aber durch die Begrenzung langer oder klarer Aufnahmen wird die Belichtung verringert.

Behandeln Sie die Überprüfung als normal und nicht unhöflich. Auflegen, um zurückzurufen oder sich mit einer anderen Person zu erkundigen, sollte normal sein. Die Verwendung einer vertrauenswürdigen Kontaktmethode ist eine vernünftige Reaktion und wird für jeden legitimen Benutzer verstanden. Betrüger raten davon ab und versuchen, Sie auf dem Laufenden zu halten, damit es einen nützlichen Filter und Test zur Verfügung stellen kann.

Kann eine Software dazu beitragen, betrügerische Anrufe mit KI-Sprache zu reduzieren?

Nur bis zu einem gewissen Punkt. Die Tools zur Anruffilterung und Spam-Erkennung analysieren Anrufmuster und ungewöhnliches Verhalten, um verdächtige Anrufe zu blockieren oder zu kennzeichnen, bevor Sie sie annehmen. Es kann auch nach verdächtigen oder bekannten Spam-Nummern suchen.

Ein Schutz auf Telefonebene kann die Gefährdung verringern, indem bekannte Betrugskampagnen gestoppt und vor wahrscheinlichem Betrug gewarnt werden. Sie können nicht jeden Anruf entgegennehmen. Es gibt viele sehr gezielte Betrügereien, bei denen neue Zahlen verwendet werden.

Aus diesem Grund sollte Software als Unterstützungsebene angesehen werden und nicht als Ersatz für Ihr besseres Urteilsvermögen. Technologie kann die Häufigkeit von Betrugsversuchen verringern, aber die Verifizierung durch eine Person ist immer noch die stärkste Verteidigung, wenn ein Anruf echt klingt.

Was sollten Sie tun, wenn Sie bereits Geld oder Informationen geteilt haben?

Wenden Sie sich sofort an Ihre Bank oder Ihren Zahlungsanbieter, wenn Geld überwiesen wurde oder wenn Kontodaten angegeben wurden. Ändern Sie sofort Passwörter und aktivieren Sie die mehrstufige Authentifizierung. Wenn personenbezogene Daten weitergegeben wurden, überprüfen Sie die Konten genau auf ungewöhnliche Aktivitäten.

Schnelles Handeln, nachdem Geld ausgegeben oder Informationen weitergegeben wurden, kann den weiteren Schaden begrenzen und die Heilungschancen erhöhen.

Dokumentieren Sie, was passiert ist, während es noch frisch ist. Speichern Sie Anrufdetails wie Nummern und Zeiten, um sie als Beweismittel zur Hand zu haben. Sie können auch alle Anweisungen, die Sie erhalten haben, notieren. Dieser Datensatz hilft Anbietern und Behörden, schneller zu reagieren, und kann verhindern, dass andere von demselben Betrug betroffen sind.

Warum KI-Sprachbetrug wahrscheinlich zunehmen wird und wie Sie trotzdem sicher bleiben können

KI-Sprachbetrug wird wahrscheinlich zunehmen, da die Stimme es Betrügern ermöglicht, sich auf überzeugende Weise auszugeben. Es ist für Betrüger einfacher, dieses Vertrauen in großem Umfang auszunutzen, und es wird immer besser.

Die Vertrautheit allein kann nicht mehr als Beweis herangezogen werden. Das bedeutet nicht, dass die Menschen machtlos sind. Die Verifizierung funktioniert auch dann noch, wenn Betrügereien immer überzeugender werden. Das Auflegen und Verifizieren der Identität sind wirksame Werkzeuge, die einen Betrugsversuch stoppen können.

Wenn Sie die Verifizierung wie gewohnt und erwartet behandeln, liegt die Kontrolle wieder in Ihren Händen. Die Entwicklung guter Gewohnheiten kann dennoch eine große Wirkung haben und Menschen helfen, nicht erwischt zu werden. Bewusstsein bedeutet auch zu wissen, dass möglicherweise nicht alles so ist, wie es scheint, wenn die Leute einen nennen.

Verwandte Artikel:

Verwandte Produkte:

FAQs – Häufig gestellte Fragen

Können Betrüger Ihre Stimme klonen, ohne dass Sie es merken?

Ja. Öffentliche Videos oder kurze Aufnahmen können ausreichen, um eine Stimme ohne direkten Kontakt zu klonen.

Auf wen zielen KI-Sprachbetrug am meisten ab?

Ziel kann jeder sein, aber Betrüger konzentrieren sich oft auf Personen, deren Stimmen oder persönliche Daten online leicht zu finden sind.

Ist KI-Sprachbetrug illegal?

Betrug, einschließlich der Verwendung geklonter Stimmen zur Täuschung, ist in vielen Ländern illegal, selbst wenn die Technologie selbst legal ist.

KI-Stimme und Deepfake-Betrug: Warum Sie einer vertrauten Stimme nicht mehr vertrauen können

KI-Stimmenbetrug verwenden geklonte Stimmen, um sich als Personen auszugeben, denen Sie vertrauen. Erfahren Sie, wie diese Täuschungsanrufe funktionieren, welche Warnsignale vorliegen und wie Sie sich selbst schützen können.
Kaspersky logo