Der kürzlich erschienen MIT-Bericht The GenAI Divide: State of AI in Business 2025 führte zu einer deutlichen Abkühlung bei Technologieaktien. Der Bericht bietet nicht nur interessante Beobachtungen zur Ökonomie und Organisation der KI-Implementierung in Unternehmen, sondern auch wertvolle Erkenntnisse für Cybersicherheitsteams. Dabei ging es den Autoren gar nicht um Sicherheitsaspekte: Die Wörter „Sicherheit“, „Cybersicherheit“ oder „Schutz“ kommen in dem Bericht überhaupt nicht vor. Die Ergebnisse können und sollten dennoch bei der Planung neuer Unternehmensrichtlinien für die KI-Sicherheit berücksichtigt werden.
Die wichtigste Beobachtung ist: Nur 40 % der befragten Unternehmen verfügen über LLM-Abonnements, aber 90 % der Mitarbeiter setzen regelmäßig nicht offiziell genehmigte KI-Tools für ihre geschäftlichen Aufgaben ein. Und diese „Ökonomie der Schatten-KI“, wie es im Bericht genannt wird, scheint effektiver zu sein als die offizielle. Lediglich 5 % der Unternehmen sehen einen wirtschaftlichen Vorteil aus ihren KI-Implementierungen, während die Mitarbeiter erfolgreich ihre persönliche Produktivität steigern.
Das „Von-oben-nach-unten“-Prinzip ist bei der KI-Implementierung oft erfolglos. Daher empfehlen die Autoren, „aus der Schattennutzung zu lernen und zu analysieren, welche persönlichen Tools einen Mehrwert bringen, bevor über Alternativen auf Unternehmensebene entschieden wird.“ Aber ist der Ratschlag der Autoren auch mit den Cybersicherheitsregeln vereinbar?
Vollständiges Verbot von Schatten-KI
Viele CISOs setzen auf folgendes Vorgehen: KI-Tools werden getestet und implementiert (oder eigene KI-Tools werden entwickelt) – und alle anderen werden einfach verboten. Dieser Ansatz kann jedoch wirtschaftlich ineffizient sein und für das Unternehmen zu Wettbewerbsnachteilen führen. Auch die Durchsetzung ist schwierig, denn oft erweist sich die Überwachung solcher Vorschriften als komplex und kostspielig. Aber für einige stark regulierte Branchen oder für Unternehmensbereiche, die mit äußerst sensiblen Daten umgehen, ist eine beschränkende Richtlinie möglicherweise die einzige Option. Diese Richtlinie kann mit folgenden Maßnahmen implementiert werden:
- Blockieren des Zugriffs auf alle gängigen KI-Tools auf Netzwerkebene mithilfe eines Netzwerkfiltertools.
- Konfigurieren eines DLP-Systems, um die Übertragung von Daten an KI-Anwendungen und -Dienste zu überwachen und zu blockieren. Hier müssen auch das Kopieren und Einfügen großer Textblöcke über die Zwischenablage verhindert werden.
- Verwendung einer Richtlinie mit einer Erlaubnisliste für Programme auf Unternehmensgeräten. Dies verhindert, dass Mitarbeiter Drittanbieter-Programme einsetzen, die direkten KI-Zugriff ermöglichen oder andere Sicherheitsmaßnahmen umgehen können.
- Verbot der Verwendung privater Geräte für dienstliche Aufgaben.
- Verwendung zusätzlicher Tools (z. B. Videoanalyse), um zu erkennen und zu verhindern, dass Mitarbeiter mit einem privaten Smartphone ihren Computerbildschirm fotografieren.
- Einführung einer unternehmensweiten Richtlinie, die die Verwendung von KI-Tools generell untersagt. Erlaubt sind nur KI-Tools, die auf einer genehmigten Liste stehen und vom Sicherheitsteam des Unternehmens bereitgestellt werden. Diese Richtlinie muss offiziell dokumentiert werden, und die Mitarbeiter sollten angemessen geschult werden.
Uneingeschränkte Nutzung von KI
Wenn das Unternehmen die Risiken des Einsatzes von KI-Tools für nebensächlich hält oder Abteilungen hat, die nicht mit personenbezogenen oder anderen sensiblen Daten umgehen, kann KI dort nahezu uneingeschränkt genutzt werden. Das Unternehmen sollte eine kurze Liste mit Hygienemaßnahmen und Beschränkungen erstellen, um die Gewohnheiten bei der LLM-Nutzung zu beobachten und beliebte Dienste zu identifizieren. Diese Daten helfen, das weitere Vorgehen zu planen und die Sicherheitsmaßnahmen zu verfeinern. Ein demokratischer Ansatz ist gut, trotzdem dürfen die folgenden Maßnahmen nicht vergessen werden:
- Mitarbeiterschulung mithilfe eines Cybersicherheitsmoduls, um den verantwortungsvollen Umgang mit KI zu fördern. Einen guten Ausgangspunkt bilden unsere Empfehlungen oder die Integration eines speziellen Kurses für erhöhtes Sicherheitsbewusstsein in die Unternehmensplattform.
- Detaillierte Protokollierung des Datenverkehrs von Programmen, um den Rhythmus der KI-Nutzung und die Arten der verwendeten Dienste zu analysieren.
- Es muss sichergestellt werden, dass alle Mitarbeiter einen Kaspersky Endpoint Detection and Response auf ihren Firmengeräten installiert haben und dass private Geräte über eine robuste Sicherheitslösung verfügen. („ChatGPT-App“ war 2024 und 2025 ein bevorzugter Köder für Informationsdiebstahl.)
- Regelmäßige Umfragen, um herauszufinden, wie oft und für welche Aufgaben KI eingesetzt wird. Die Auswirkungen und Risiken der KI-Verwendung können anhand von Telemetrie- und Umfragedaten bewertet werden, um die Richtlinien anzupassen.
Ausgewogene Beschränkungen für die KI-Nutzung
Wenn es um die unternehmensweite KI-Nutzung geht, sind solche Extreme vermutlich nicht angemessen – weder ein komplettes Verbot noch vollkommene Freiheit werden funktionieren. Praktischer ist eine Richtlinie, die je nach Art der verwendeten Daten unterschiedliche Ebenen des KI-Zugriffs vorsieht. Zur vollständigen Umsetzung einer solchen Richtlinie gehören folgende Aspekte:
- Ein spezialisierter KI-Proxy, der Abfragen kontinuierlich bereinigt und bestimmte Arten vertraulicher Daten entfernt (z. B. Namen oder Kunden-IDs). Dieser Proxy verwendet zudem eine rollenbasierte Zugriffskontrolle, um unangemessene Anwendungsfälle zu blockieren.
- Ein IT-Self-Service-Portal, in dem Mitarbeiter angeben können, wie sie KI-Tools nutzen: von grundlegenden Modellen und Diensten bis hin zu speziellen Anwendungen und Browser-Erweiterungen.
- Eine Lösung (z. B. NGFW, CASB oder DLP) zur präzisen Überwachung und Steuerung der KI-Nutzung auf der Ebene spezifischer Anfragen für einzelne Dienste.
- Modifizierte CI/CD-Pipelines und SAST/DAST-Tools, um KI-generierten Code automatisch zu identifizieren und zusätzliche Überprüfungsschritte dafür festzulegen (dies ist nur für Unternehmen aktuell, die Software erstellen).
- Wie beim uneingeschränkten Szenario sind regelmäßige Mitarbeiterschulungen, Umfragen und solide Sicherheit für geschäftliche und private Geräte unerlässlich.
Ausgehend von den aufgezählten Anforderungen muss eine Richtlinie entwickelt werden, die verschiedene Abteilungen und unterschiedliche Arten von Informationen abdeckt. Dies könnte etwa so aussehen:
| Datentyp | Öffentlich zugängliche KI (von privaten Geräten und Konten) | Externer KI-Dienst (über einen KI-Proxy des Unternehmens) | Lokale oder vertrauenswürdige KI-Tools in der Cloud |
| Öffentliche Daten (z. B. Anzeigentext) | Erlaubt (mit Meldung über das Unternehmensportal) | Erlaubt (wird protokolliert) | Erlaubt (wird protokolliert) |
| Allgemeine interne Daten (z. B. E-Mail-Inhalte) | Nicht empfohlen, aber auch nicht blockiert. Meldung ist erforderlich | Erlaubt (wird protokolliert) | Erlaubt (wird protokolliert) |
| Vertrauliche Daten (z. B. Quellcode für Anwendungen, Mitteilungen zu rechtlichen Fragen oder Nachrichten der Personalabteilung) | Durch DLP/CASB/NGFW blockiert | Erlaubt für bestimmte, vom Manager genehmigte Szenarien (personenbezogene Daten müssen entfernt werden; Code muss sowohl automatisch als auch manuell überprüft werden) | Erlaubt (wird protokolliert und personenbezogene Daten werden bei Bedarf entfernt) |
| Regulierte sensible Daten (z. B. Finanzdaten und medizinische Daten) | Verboten | Verboten | Erlaubt bei Zustimmung der IT-Sicherheitsabteilung; behördliche Aufbewahrungsvorschriften sind zu berücksichtigen |
| Sehr kritische und geheime Daten | Verboten | Verboten | Verboten (Ausnahmen nur mit Zustimmung der Unternehmensführung möglich) |
Die Durchsetzung dieser Richtlinie erfordert neben technischen Instrumenten auch einen mehrschichtigen organisatorischen Ansatz. Ganz wichtig sind die Mitarbeiterschulung und die Aufklärung über die mit KI verbundenen Risiken – von Datenlecks und Halluzinationen bis hin zu Prompt-Injektionen. Diese Schulung sollte für alle Unternehmensmitarbeiter verbindlich sein.
Neben einer grundlegenden Schulung ist es wichtig, genaue Richtlinien zu entwickeln und die Abteilungsleiter weiterzubilden. Nur so können Führungskräfte fundiert darüber entscheiden, ob Anfragen zur Verwendung bestimmter Daten mit öffentlichen KI-Tools genehmigt oder abgelehnt werden sollen.
Die ausgearbeiteten Richtlinien, Kriterien und Maßnahmen sind jedoch nur der Anfang. Sie müssen natürlich regelmäßig aktualisiert werden. Dazu gehören die Datenanalyse, die Verfeinerung realer KI-Anwendungsfälle und die Überwachung gängiger Tools. Ein Self-Service-Portal ist erforderlich, damit die Mitarbeiter in einer stressfreien Umgebung erklären können, welche KI-Tools sie für welche Zwecke verwenden. Dieses wertvolle Feedback bereichert die Analysen, unterstützt die Erstellung eines Geschäftsszenarios für die KI-Einführung und gibt Hinweise auf ein rollenbasiertes Modell für die Anwendung passender Sicherheitsrichtlinien.
Schließlich ist noch ein mehrstufiges System erforderlich, mit dem auf Verstöße reagiert wird. Mögliche Schritte:
- Eine automatische Warnung und eine obligatorische Mikroschulung zum gegebenen Verstoß.
- Ein persönliches Treffen des Mitarbeiters mit seinem Abteilungsleiter und einem IT-Sicherheitsbeauftragten.
- Ein vorübergehendes Verbot von KI-basierten Tools.
- Strenge Disziplinarmaßnahmen durch die Personalabteilung.
Ein umfassender Ansatz für die KI-Sicherheit
Die hier besprochenen Richtlinien decken einen relativ engen Bereich von Risiken ab, die mit der Verwendung von SaaS-Lösungen für generative KI einhergehen. Eine umfassende Richtlinie muss alle relevanten Risiken berücksichtigen. Genaue Informationen darüber findest du in unserem Leitfaden zur sicheren Implementierung von KI-Systemen, der von Kaspersky in Zusammenarbeit mit zuverlässigen Experten entwickelt wurde.
KI
Tipps