ChatGPT, Gemini und andere KI-Tools sicher nutzen

KI-Tools sind allgegenwärtig – von Betriebssystemen und Office-Suiten bis hin zu Bildbearbeitungstools und Chats. Wie kannst du ChatGPT, Gemini und die vielen Add-ons zu diesen Tools nutzen, ohne deine digitale Sicherheit zu gefährden?

Das explosionsartige Wachstum von KI-Anwendungen, -Diensten und -Plug-ins im letzten Jahr wird sich voraussichtlich noch beschleunigen. Von Office-Anwendungen und Bildeditoren bis hin zu integrierten Entwicklungsumgebungen (IDE) wie Visual Studio – KI wird zu bekannten und seit Langem verwendeten Tools hinzugefügt. Viele Entwickler erstellen Tausende neuer Apps, die auf den größten KI-Modellen basieren. Doch bisher war niemand in der Lage, die inhärenten Sicherheitsprobleme von KI-Tools zu lösen, in erster Linie die Minimierung von Datenlecks und auch das Ausmaß von Hackerangriffen auf Konten/Geräte über verschiedene KI-Tools – geschweige denn geeignete Sicherheitsvorkehrungen gegen eine futuristische „böse KI“ zu entwickeln. Bis jemand eine Standardlösung zum Schutz der Benutzer von KI-Assistenten findet, musst du dir ein paar Fähigkeiten aneignen und dir selbst helfen.

Wie nutzt man also KI, ohne es später zu bereuen?

Wichtige Daten filtern

In der Datenschutzrichtlinie von OpenAI, dem Entwickler von ChatGPT, heißt es eindeutig, dass Dialoge mit dem Chatbot gespeichert werden und für verschiedene Zwecke verwendet werden können. Erstens werden technische Probleme behoben und Verstöße gegen die Nutzungsbedingungen verhindert – für den Fall, dass jemand auf die Idee kommt, unangemessene Inhalte zu erstellen. Wer hätte das gedacht, oder? In diesem Fall können Chats sogar von einem Menschen überprüft werden. Zweitens können die Daten verwendet werden, um neue GPT-Versionen zu trainieren und andere Produkt-„Verbesserungen“ vorzunehmen.

Die meisten anderen gängigen Sprachmodelle – sei es Gemini von Google, Claude von Anthropic oder Bing und Copilot von Microsoft – haben ähnliche Richtlinien: Sie alle können Dialoge vollständig speichern.

Allerdings ist es aufgrund von Programmfehlern bereits zu unbeabsichtigten Chat-Leaks gekommen, bei denen Benutzer die Unterhaltungen anderer Personen und nicht ihre eigenen sehen. Die Verwendung dieser Daten für Training kann auch zu einem Datenleck aus einem vortrainierten Modell führen: Der KI-Assistent kann deine Informationen an eine andere Person weitergeben, wenn er der Meinung ist, dass sie für die Antwort relevant sind. Experten für Informationssicherheit haben sogar mehrere Angriffe (eins, zwei, drei) entwickelt, die darauf abzielen, Dialoge zu stehlen, und es ist unwahrscheinlich, dass sie hier aufhören.

Denk also daran: Alles, was du an einen Chatbot schreibst, kann gegen dich verwendet werden. Wir empfehlen, Vorsichtsmaßnahmen zu treffen, wenn du mit einer KI sprichst.

Sende keine persönlichen Daten an einen Chatbot. Keine Passwörter, Pass- oder Bankkartennummern, Adressen, Telefonnummern, Namen oder andere persönliche Daten, die dir, deinem Unternehmen oder deinen Kunden gehören, dürfen in Chats mit einer KI landen. Du kannst die Daten in deiner Anfrage durch Sternchen oder „ANONYMISIERT“ ersetzen.

Lade keine Dokumente hoch. Zahlreiche Plug-ins und Add-ons ermöglichen die Verwendung von Chatbots für die Verarbeitung von Dokumenten. Es könnte eine große Versuchung sein, ein Arbeitsdokument hochzuladen, um beispielsweise eine Zusammenfassung zu erhalten. Wenn du jedoch ein mehrseitiges Dokument fahrlässig hochlädst, riskierst du die Preisgabe vertraulicher Daten, geistigen Eigentums oder eines Geschäftsgeheimnisses, z. B. des Erscheinungsdatums eines neuen Produkts oder der Gehaltsabrechnung des gesamten Teams. Oder noch schlimmer: Du wirst bei der Verarbeitung von Dokumenten, die aus externen Quellen stammen, möglicherweise Ziel eines Angriffs, der darauf basiert, dass das Dokument von einem Sprachmodell gescannt wird.

Fehlerhafte Datenschutzeinstellungen. Mach dich mit der Datenschutzrichtlinie und den verfügbaren Einstellungen deines Anbieters für das große Sprachmodell (LLM) vertraut: Diese können normalerweise dazu verwendet werden, die Nachverfolgung zu minimieren. Bei den Produkten von OpenAI kannst du beispielsweise das Speichern des Chatverlaufs deaktivieren. In diesem Fall werden die Daten nach 30 Tagen gelöscht und nicht für Training verwendet. Für Benutzer, die APIs, Apps oder Dienste von Drittanbietern verwenden, um auf OpenAI-Lösungen zuzugreifen, ist diese Einstellung standardmäßig aktiviert.

Gibst du einen Code ein? Entferne alle vertraulichen Daten. Dieser Tipp richtet sich an Softwareentwickler, die KI-Assistenten verwenden, um ihren Code zu überprüfen und zu verbessern: Entferne alle API-Schlüssel, Serveradressen und sonstige Informationen, die Aufschluss über die Struktur des Programms oder die Serverkonfiguration geben könnten.

Beschränke die Nutzung von Anwendungen und Plug-ins von Drittanbietern

Befolge die oben genannten Tipps jedes Mal – unabhängig davon, welchen beliebten KI-Assistenten du verwendest. Manchmal reicht aber sogar das nicht aus, um den Datenschutz zu gewährleisten. Die Nutzung von ChatGPT-Plug-ins, Gemini-Erweiterungen oder separaten Zusatzanwendungen führt zu neuen Arten von Bedrohungen.

Erstens kann dein Chatverlauf jetzt nicht nur auf Google- oder OpenAI-Servern, sondern auch auf Servern von Drittanbietern, die das Plug-in oder Add-on unterstützen, sowie in ungewöhnlichen Ecken deines Computers oder Smartphones gespeichert werden.

Zweitens beziehen die meisten Plug-ins Informationen aus externen Quellen: Websuchen, deinem Gmail-Posteingang oder persönlichen Notizen aus Diensten wie Notion, Jupyter oder Evernote. In der Folge können deine Daten aus diesen Diensten auch auf den Servern landen, auf denen das Plug-in oder das Sprachmodell selbst ausgeführt wird. Eine solche Integration kann erhebliche Risiken bergen: So zum Beispiel bei diesem Angriff, bei dem im Namen des Benutzers neue GitHub-Repositorys erstellt werden.

Drittens ist die Veröffentlichung und Überprüfung von Plug-ins für KI-Assistenten derzeit ein weitaus weniger geordneter Prozess als beispielsweise das Screening von Apps im App Store oder bei Google Play. Daher ist die Wahrscheinlichkeit, dass du auf ein schlecht funktionierendes, schlecht geschriebenes, fehlerhaftes oder sogar bösartiges Plug-in stößt, ziemlich hoch – zumal anscheinend niemand die Ersteller oder deren Kontakte wirklich überprüft.

Wie kannst du diese Risiken minimieren? Unser wichtigster Tipp ist, sich etwas Zeit zu lassen. Das Plug-in-Ökosystem ist zu jung, die Veröffentlichungs- und Supportprozesse laufen nicht reibungslos und die Entwickler selbst achten nicht immer darauf, die Plug-ins richtig zu entwickeln oder den Anforderungen der Informationssicherheit zu entsprechen. Dieses gesamte Ökosystem braucht mehr Zeit, um zu reifen und sicherer und zuverlässiger zu werden.

Außerdem bieten viele Plug-ins und Add-ons kaum Mehrwert für die Standard-ChatGPT-Version: Meist handelt es sich um kleinere Anpassungen der Benutzeroberfläche und Vorlagen für „Systemeingabeaufforderungen“, die den Assistenten für eine bestimmte Aufgabe anpassen („Verhalte dich wie ein Physiklehrer an einem Gymnasium …“). Es lohnt sich nicht, diesen Wrappern deine Daten anzuvertrauen, da du die Aufgabe auch ohne sie problemlos ausführen kannst.

Wenn du bestimmte Funktionen eines Plug-ins gerade jetzt benötigst, versuche vor der Nutzung die größtmöglichen Vorsichtsmaßnahmen zu treffen.

  • Entscheide dich für Erweiterungen und Add-ons, die seit mindestens mehreren Monaten im Einsatz sind und regelmäßig aktualisiert werden.
  • Ziehe nur Plug-ins in Betracht, die viele Downloads haben, und lies die Testberichte sorgfältig durch, um Probleme zu vermeiden.
  • Wenn für das Plug-in eine Datenschutzerklärung vorliegt, lies sie aufmerksam durch, bevor du die Erweiterung verwendest.
  • Nutze nach Möglichkeit Open-Source-Tools.
  • Wenn du auch nur über rudimentäre Programmierkenntnisse verfügst oder Freunde hast, die programmieren, überfliege den Code, um sicherzustellen, dass Daten nur an die angegebenen Server und idealerweise nur an die KI-Modellserver gesendet werden.

Ausführungs-Plug-ins erfordern eine spezielle Überwachung

Bisher haben wir die Risiken im Zusammenhang mit Datenlecks beleuchtet; doch das ist nicht das einzige potenzielle Problem bei der Verwendung von KI. Viele Plug-ins sind in der Lage, auf Befehl des Benutzers bestimmte Aktionen auszuführen, beispielsweise die Bestellung von Flugtickets. Diese Tools bieten böswilligen Akteuren einen neuen Angriffsvektor: Dem Opfer wird ein Dokument, eine Webseite, ein Video oder sogar ein Bild präsentiert, das neben dem Hauptinhalt auch versteckte Anweisungen für das Sprachmodell enthält. Wenn das Opfer das Dokument oder den Link an einen Chatbot weiterleitet, führt dieser die bösartigen Anweisungen aus – beispielsweise indem er mit dem Geld des Opfers Tickets kauft. Diese Art von Angriff wird als Prompt Injection bezeichnet, und obwohl die Entwickler verschiedener LLMs versuchen, einen Schutz gegen diese Bedrohung zu entwickeln, ist dies bisher niemand gelungen – und wird es vielleicht auch nie.

Glücklicherweise erfordern die meisten wichtigen Aktionen – insbesondere solche, die Zahlungsvorgänge betreffen, wie der Kauf von Tickets – eine doppelte Bestätigung. Durch die Interaktionen zwischen Sprachmodellen und Plug-ins entsteht jedoch eine Angriffsfläche, die so groß ist, dass es schwierig ist, konsistente Ergebnisse dieser Maßnahmen zu garantieren.

Daher musst du bei der Auswahl von KI-Tools sehr sorgfältig vorgehen und sicherstellen, dass diese nur vertrauenswürdige Daten zur Verarbeitung erhalten.

Tipps