Deepfakes werden Alltagstechnologie und fester Bestandteil der Sicherheitsagenda
- Offene KI-Modelle vereinfachen Missbrauch, Agenten-basierte Systeme unterstützen Angriffe wie auch Abwehr
- SOC-Teams nutzen zunehmend Kontext von agentenbasierten KI-Assistenten statt manuelle Suchen
Die rasante Entwicklung von Künstlicher Intelligenz verändert die Cybersicherheitslandschaft grundlegend: Sprachmodelle und generative KI verbessern nicht nur die Abwehrfähigkeiten von Unternehmen, sie eröffnen auch neue Möglichkeiten für Cyberkriminelle, Nutzer zu täuschen und zu schaden, wie die Kaspersky-Experten prognostizieren. Neben realistischeren Deepfakes werden KI-gestützte Angriffe und offene Modelle die Bedrohungslage für Privatnutzer und Unternehmen im Jahr 2026 verschärfen.
Die Prognosen von Kaspersky stützen sich auf das Fachwissen der unternehmensinternen Cybersicherheitsexperten in den Bereichen Threat Intelligence, Schwachstellenanalyse, Angriffs- und Vorfallreaktion sowie auf die Entwicklungen des vergangenen Jahres – darunter die Auswertung aktueller KI-Trends, Deepfake-Fälle und Angriffsaktivitäten.
Prognosen für das Jahr 2026
Für das Jahr 2026 erwarten die Kaspersky-Experten folgende Trends in Bezug auf Künstliche Intelligenz und Cybersicherheit:
Deepfakes werden einfacher zu erstellen, das Bewusstsein dafür nimmt weiter zu: Mit der fortschreitenden Verbreitung von Deepfakes vergrößert sich die Bandbreite der Formate, in denen diese auftreten. Deshalb diskutieren Unternehmensentscheider zunehmend die Risiken unechter Inhalte und schulen Mitarbeiter diesbezüglich, um die Wahrscheinlichkeit zu verringern, dass diese auf solche Inhalte hereinfallen. Deepfakes werden damit zu einem festen Bestandteil der Sicherheitsagenda und erfordern in Unternehmen einen systematischen Ansatz bei Schulungen und internen Richtlinien. Parallel dazu steigt auch bei immer mehr Verbrauchern das Bewusstsein, da sie gefälschten Inhalten häufiger begegnen und die Art dieser Bedrohungen besser zu erkennen und verstehen lernen.
Deepfake-Qualität verbessert sich durch besseres Audio – bei sinkenden Einstiegshürden: Die visuelle Qualität vieler Deepfakes ist bereits hoch; auch im Audiobereich wird es im kommenden Jahr Fortschritte beim Realismus geben. Gleichzeitig werden Tools zur Content-Erzeugung einfacher zu bedienen, so dass selbst Laien mit wenigen Klicks Deepfakes mittlerer Qualität erstellen können. Dadurch wird ihre durchschnittliche Qualität weiter steigen, ihre Erstellung für wesentlich mehr Menschen möglich und auch Cyberkriminelle werden diese Fähigkeiten weiterhin nutzen.
Weitere Bemühungen zur Entwicklung eines verlässlichen Systems zur Kennzichnung von KI-generierten Inhalten: Derzeit gibt es keine einheitlichen Kriterien, um synthetische Inhalte zuverlässig zu identifizieren; bestehende Kennzeichnungen lassen sich leicht umgehen oder entfernen – insbesondere beim Einsatz von Open-Source-Modellen. Deshalb werden neue technische und regulatorische Initiativen entstehen, die diese Herausforderung angehen sollen.
Online-Deepfakes entwickeln sich weiter, bleiben aber Werkzeuge für fortgeschrittene Nutzer: Technologien für den Echtzeit-Austausch von Gesichtern und Stimmen werden besser, ihre Einrichtung erfordert jedoch weiterhin fortgeschrittene technische Fähigkeiten. Eine breite Nutzung ist daher unwahrscheinlich, doch in zielgerichteten Angriffsszenarien werden die Risiken zunehmen: Höhere Realitätsnähe und die Möglichkeit, Videos mithilfe virtueller Kameras zu manipulieren, machen diese noch überzeugender.
Offene KI-Modelle nähern sich geschlossenen Systemen an und schaffen mehr Missbrauchspotenzial: Offene Modelle werden sich in vielen cybersicherheitsrelevanten Aufgaben den leistungsstarken geschlossenen Systemen annähern. Geschlossene Modelle bieten zwar weiterhin strengere Kontrollmechanismen und Schutzmaßnahmen, die Missbrauch einschränken sollen. Open-Source-Systeme holen jedoch im Funktionsumfang schnell auf und zirkulieren ohne vergleichbare Beschränkungen. Dadurch verschwimmen die Grenzen zwischen proprietären und offenen Modellen; beide können effizient für unerwünschte oder schädliche Zwecke eingesetzt werden.
Die Grenze zwischen legitimen und betrügerischen KI-generierten Inhalten verschwimmt weiter: KI erzeugt bereits gut-formulierte Betrugsmails, überzeugende visuelle Markenauftritte und hochwertige Phishing-Seiten. Gleichzeitig setzen große Marken in ihrer Werbung zunehmend auf synthetische Inhalte, sodass KI-generierte Materialien vertraut und visuell „normal“ wirken. Damit wird es für Nutzer ebenso wie für automatische Erkennungssysteme noch schwieriger, echte Inhalte von gefälschten zu unterscheiden.
KI wird zum übergreifenden Werkzeug entlang der Angriffskette: Angreifer nutzen große Sprachmodelle bereits, um Code zu schreiben, Infrastruktur aufzubauen und operative Aufgaben zu automatisieren. Weitere Fortschritte werden diese Entwicklung verstärken: KI wird zunehmend mehrere Phasen eines Angriffs unterstützen – von der Vorbereitung und Kommunikation über die Zusammenstellung schädlicher Komponenten bis hin zur Schwachstellensuche und dem Tool-Einsatz. Zugleich werden Angreifer versuchen, Hinweise auf KI-Einsatz zu verbergen, und damit die Analyse solcher Operationen erschweren.
KI wird zum Standardwerkzeug in Sicherheitsanalysen und verändert die Arbeit von SOC-Teams: Agentenbasierte Systeme werden künftig kontinuierlich Infrastrukturen scannen, Schwachstellen identifizieren und Kontextinformationen für Untersuchungen sammeln können. Dadurch sinkt der Aufwand für manuelle Routinearbeiten, sodass sich der Fokus von Sicherheitsspezialisten von manueller Datensuche zu Entscheidungen auf Basis bereits aufbereiteter Kontextinformationen verlagern wird. Außerdem werden Sicherheits-Tools verstärkt Schnittstellen in natürlicher Sprache einsetzen und Prompts anstelle komplexer technischer Suchanfragen ermöglichen.