{"id":30940,"date":"2024-02-23T10:44:31","date_gmt":"2024-02-23T08:44:31","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=30940"},"modified":"2024-02-23T10:44:31","modified_gmt":"2024-02-23T08:44:31","slug":"how-to-use-chatgpt-ai-assistants-securely-2024","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/30940\/","title":{"rendered":"ChatGPT, Gemini und andere KI-Tools sicher nutzen"},"content":{"rendered":"<p>Das explosionsartige Wachstum von KI-Anwendungen, -Diensten und -Plug-ins im letzten Jahr wird sich voraussichtlich noch beschleunigen. Von Office-Anwendungen und Bildeditoren bis hin zu integrierten Entwicklungsumgebungen (IDE) wie Visual Studio\u00a0\u2013 KI wird zu bekannten und seit Langem verwendeten Tools hinzugef\u00fcgt. Viele Entwickler erstellen Tausende neuer Apps, die auf den gr\u00f6\u00dften KI-Modellen basieren. Doch bisher war niemand in der Lage, die inh\u00e4renten Sicherheitsprobleme von KI-Tools zu l\u00f6sen, in erster Linie die Minimierung von Datenlecks und auch das Ausma\u00df von Hackerangriffen auf Konten\/Ger\u00e4te \u00fcber verschiedene KI-Tools \u2013 geschweige denn geeignete Sicherheitsvorkehrungen gegen eine futuristische \u201eb\u00f6se KI\u201c zu entwickeln. Bis jemand eine Standardl\u00f6sung zum Schutz der Benutzer von KI-Assistenten findet, musst du dir ein paar F\u00e4higkeiten aneignen und dir selbst helfen.<\/p>\n<p>Wie nutzt man also KI, ohne es sp\u00e4ter zu bereuen?<\/p>\n<h2>Wichtige Daten filtern<\/h2>\n<p><a href=\"https:\/\/openai.com\/policies\/privacy-policy\" target=\"_blank\" rel=\"noopener nofollow\">In der Datenschutzrichtlinie von OpenAI<\/a>, dem Entwickler von ChatGPT, hei\u00dft es eindeutig, dass Dialoge mit dem Chatbot gespeichert werden und f\u00fcr verschiedene Zwecke verwendet werden k\u00f6nnen. Erstens werden technische Probleme behoben und Verst\u00f6\u00dfe gegen die Nutzungsbedingungen verhindert\u00a0\u2013 f\u00fcr den Fall, dass jemand auf die Idee kommt, unangemessene Inhalte zu erstellen. Wer h\u00e4tte das gedacht, oder? In diesem Fall k\u00f6nnen Chats sogar von einem Menschen \u00fcberpr\u00fcft werden. Zweitens k\u00f6nnen die Daten verwendet werden, um neue GPT-Versionen zu trainieren und andere Produkt-\u201eVerbesserungen\u201c vorzunehmen.<\/p>\n<p>Die meisten anderen g\u00e4ngigen Sprachmodelle\u00a0\u2013 sei es Gemini von Google, Claude von Anthropic oder Bing und Copilot von Microsoft\u00a0\u2013 haben \u00e4hnliche Richtlinien: Sie alle k\u00f6nnen Dialoge vollst\u00e4ndig speichern.<\/p>\n<p>Allerdings ist es aufgrund von Programmfehlern <a href=\"https:\/\/www.bbc.com\/news\/technology-65047304\" target=\"_blank\" rel=\"noopener nofollow\">bereits zu unbeabsichtigten Chat-Leaks gekommen<\/a>, bei denen Benutzer die Unterhaltungen anderer Personen und nicht ihre eigenen sehen. Die Verwendung dieser Daten f\u00fcr Training kann auch zu einem <a href=\"https:\/\/www.zdnet.com\/article\/chatgpt-can-leak-source-data-violate-privacy-says-googles-deepmind\/\" target=\"_blank\" rel=\"noopener nofollow\">Datenleck aus einem vortrainierten Modell f\u00fchren<\/a>: Der KI-Assistent kann deine Informationen an eine andere Person weitergeben, wenn er der Meinung ist, dass sie f\u00fcr die Antwort relevant sind. Experten f\u00fcr Informationssicherheit haben sogar mehrere Angriffe (<a href=\"https:\/\/www.bleepingcomputer.com\/news\/security\/openai-rolls-out-imperfect-fix-for-chatgpt-data-leak-flaw\/\" target=\"_blank\" rel=\"noopener nofollow\">eins<\/a>, <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-data-exfiltration\/\" target=\"_blank\" rel=\"noopener nofollow\">zwei<\/a>, <a href=\"https:\/\/promptarmor.substack.com\/p\/data-exfiltration-from-writercom\" target=\"_blank\" rel=\"noopener nofollow\">drei<\/a>) entwickelt, die darauf abzielen, Dialoge zu stehlen, und es ist unwahrscheinlich, dass sie hier aufh\u00f6ren.<\/p>\n<p>Denk also daran: Alles, was du an einen Chatbot schreibst, kann gegen dich verwendet werden. Wir empfehlen, Vorsichtsma\u00dfnahmen zu treffen, wenn du mit einer KI sprichst.<\/p>\n<p><strong>Sende keine pers\u00f6nlichen Daten an einen Chatbot. <\/strong>Keine Passw\u00f6rter, Pass- oder Bankkartennummern, Adressen, Telefonnummern, Namen oder andere pers\u00f6nliche Daten, die dir, deinem Unternehmen oder deinen Kunden geh\u00f6ren, d\u00fcrfen in Chats mit einer KI landen. Du kannst die Daten in deiner Anfrage durch Sternchen oder \u201eANONYMISIERT\u201c ersetzen.<\/p>\n<p><strong>Lade keine Dokumente hoch. <\/strong>Zahlreiche Plug-ins und Add-ons erm\u00f6glichen die Verwendung von Chatbots f\u00fcr die Verarbeitung von Dokumenten. Es k\u00f6nnte eine gro\u00dfe Versuchung sein, ein Arbeitsdokument hochzuladen, um beispielsweise eine Zusammenfassung zu erhalten. Wenn du jedoch ein mehrseitiges Dokument fahrl\u00e4ssig hochl\u00e4dst, riskierst du die <a href=\"https:\/\/mashable.com\/article\/samsung-chatgpt-leak-details\" target=\"_blank\" rel=\"noopener nofollow\">Preisgabe vertraulicher Daten<\/a>, geistigen Eigentums oder eines Gesch\u00e4ftsgeheimnisses, z. B. des Erscheinungsdatums eines neuen Produkts oder der Gehaltsabrechnung des gesamten Teams. Oder noch schlimmer: Du wirst bei der Verarbeitung von Dokumenten, die aus externen Quellen stammen, m\u00f6glicherweise <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-docs-ai-scam\/\" target=\"_blank\" rel=\"noopener nofollow\">Ziel eines Angriffs<\/a>, der darauf basiert, dass das Dokument von einem Sprachmodell gescannt wird.<\/p>\n<p><strong>Fehlerhafte Datenschutzeinstellungen.<\/strong> Mach dich mit der Datenschutzrichtlinie und den verf\u00fcgbaren Einstellungen deines Anbieters f\u00fcr das gro\u00dfe Sprachmodell (LLM) vertraut: Diese k\u00f6nnen normalerweise dazu verwendet werden, die Nachverfolgung zu minimieren. Bei den Produkten von OpenAI kannst du beispielsweise das Speichern des Chatverlaufs deaktivieren. In diesem Fall werden die Daten nach 30 Tagen gel\u00f6scht und nicht f\u00fcr Training verwendet. F\u00fcr Benutzer, die APIs, Apps oder Dienste von Drittanbietern verwenden, um auf OpenAI-L\u00f6sungen zuzugreifen, ist diese Einstellung standardm\u00e4\u00dfig aktiviert.<\/p>\n<p><strong>Gibst du einen Code ein? Entferne alle vertraulichen Daten.<\/strong> Dieser Tipp richtet sich an Softwareentwickler, die KI-Assistenten verwenden, um ihren Code zu \u00fcberpr\u00fcfen und zu verbessern: Entferne alle API-Schl\u00fcssel, Serveradressen und sonstige Informationen, die Aufschluss \u00fcber die Struktur des Programms oder die Serverkonfiguration geben k\u00f6nnten.<\/p>\n<h2>Beschr\u00e4nke die Nutzung von Anwendungen und Plug-ins von Drittanbietern<\/h2>\n<p>Befolge die oben genannten Tipps jedes Mal\u00a0\u2013 unabh\u00e4ngig davon, welchen beliebten KI-Assistenten du verwendest. Manchmal reicht aber sogar das nicht aus, um den Datenschutz zu gew\u00e4hrleisten. Die Nutzung von ChatGPT-Plug-ins, Gemini-Erweiterungen oder separaten Zusatzanwendungen f\u00fchrt zu neuen Arten von Bedrohungen.<\/p>\n<p>Erstens kann dein Chatverlauf jetzt nicht nur auf Google- oder OpenAI-Servern, sondern auch auf Servern von Drittanbietern, die das Plug-in oder Add-on unterst\u00fctzen, sowie in ungew\u00f6hnlichen Ecken deines Computers oder Smartphones gespeichert werden.<\/p>\n<p>Zweitens beziehen die meisten Plug-ins Informationen aus externen Quellen: Websuchen, deinem Gmail-Posteingang oder pers\u00f6nlichen Notizen aus Diensten wie Notion, Jupyter oder Evernote. In der Folge k\u00f6nnen deine Daten aus diesen Diensten auch auf den Servern landen, auf denen das Plug-in oder das Sprachmodell selbst ausgef\u00fchrt wird. Eine solche Integration kann erhebliche Risiken bergen: So zum Beispiel bei diesem <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">Angriff, bei dem im Namen des Benutzers neue GitHub-Repositorys erstellt werden<\/a>.<\/p>\n<p>Drittens ist die Ver\u00f6ffentlichung und \u00dcberpr\u00fcfung von Plug-ins f\u00fcr KI-Assistenten derzeit ein weitaus weniger geordneter Prozess als beispielsweise das Screening von Apps im App Store oder bei Google Play. Daher ist die Wahrscheinlichkeit, dass du auf ein schlecht funktionierendes, schlecht geschriebenes, fehlerhaftes oder sogar b\u00f6sartiges Plug-in st\u00f6\u00dft, ziemlich hoch\u00a0\u2013 zumal anscheinend <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">niemand die Ersteller oder deren Kontakte wirklich \u00fcberpr\u00fcft<\/a>.<\/p>\n<p>Wie kannst du diese Risiken minimieren? Unser wichtigster Tipp ist, sich etwas Zeit zu lassen. Das Plug-in-\u00d6kosystem ist zu jung, die Ver\u00f6ffentlichungs- und Supportprozesse laufen nicht reibungslos und die Entwickler selbst achten nicht immer darauf, die Plug-ins richtig zu entwickeln oder den Anforderungen der Informationssicherheit zu entsprechen. Dieses gesamte \u00d6kosystem braucht mehr Zeit, um zu reifen und sicherer und zuverl\u00e4ssiger zu werden.<\/p>\n<p>Au\u00dferdem bieten viele Plug-ins und Add-ons kaum Mehrwert f\u00fcr die Standard-ChatGPT-Version: Meist handelt es sich um kleinere Anpassungen der Benutzeroberfl\u00e4che und Vorlagen f\u00fcr \u201eSystemeingabeaufforderungen\u201c, die den Assistenten f\u00fcr eine bestimmte Aufgabe anpassen (\u201eVerhalte dich wie ein Physiklehrer an einem Gymnasium\u00a0\u2026\u201c). Es lohnt sich nicht, diesen Wrappern deine Daten anzuvertrauen, da du die Aufgabe auch ohne sie problemlos ausf\u00fchren kannst.<\/p>\n<p>Wenn du bestimmte Funktionen eines Plug-ins gerade jetzt ben\u00f6tigst, versuche vor der Nutzung die gr\u00f6\u00dftm\u00f6glichen Vorsichtsma\u00dfnahmen zu treffen.<\/p>\n<ul>\n<li>Entscheide dich f\u00fcr Erweiterungen und Add-ons, die seit mindestens mehreren Monaten im Einsatz sind und regelm\u00e4\u00dfig aktualisiert werden.<\/li>\n<li>Ziehe nur Plug-ins in Betracht, die viele Downloads haben, und lies die Testberichte sorgf\u00e4ltig durch, um Probleme zu vermeiden.<\/li>\n<li>Wenn f\u00fcr das Plug-in eine Datenschutzerkl\u00e4rung vorliegt, lies sie aufmerksam durch, <strong>bevor<\/strong> du die Erweiterung verwendest.<\/li>\n<li>Nutze nach M\u00f6glichkeit Open-Source-Tools.<\/li>\n<li>Wenn du auch nur \u00fcber rudiment\u00e4re Programmierkenntnisse verf\u00fcgst oder Freunde hast, die programmieren, \u00fcberfliege den Code, um sicherzustellen, dass Daten nur an die angegebenen Server und idealerweise nur an die KI-Modellserver gesendet werden.<\/li>\n<\/ul>\n<h2>Ausf\u00fchrungs-Plug-ins erfordern eine spezielle \u00dcberwachung<\/h2>\n<p>Bisher haben wir die Risiken im Zusammenhang mit Datenlecks beleuchtet; doch das ist nicht das einzige potenzielle Problem bei der Verwendung von KI. Viele Plug-ins sind in der Lage, auf Befehl des Benutzers bestimmte Aktionen auszuf\u00fchren, beispielsweise die Bestellung von Flugtickets. Diese Tools bieten b\u00f6swilligen Akteuren einen neuen Angriffsvektor: Dem Opfer wird ein Dokument, eine Webseite, ein Video oder sogar ein Bild pr\u00e4sentiert, das neben dem Hauptinhalt auch versteckte Anweisungen f\u00fcr das Sprachmodell enth\u00e4lt. Wenn das Opfer das Dokument oder den Link an einen Chatbot weiterleitet, f\u00fchrt dieser die b\u00f6sartigen Anweisungen aus \u2013 beispielsweise indem er mit dem Geld des Opfers Tickets kauft. Diese Art von Angriff wird als <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-image-to-prompt-injection\/\" target=\"_blank\" rel=\"noopener nofollow\">Prompt Injection<\/a> bezeichnet, und obwohl die Entwickler verschiedener LLMs versuchen, einen Schutz gegen diese Bedrohung zu entwickeln, ist dies bisher niemand gelungen \u2013 und wird es vielleicht auch nie.<\/p>\n<p>Gl\u00fccklicherweise erfordern die meisten wichtigen Aktionen \u2013 insbesondere solche, die Zahlungsvorg\u00e4nge betreffen, wie der Kauf von Tickets \u2013 eine doppelte Best\u00e4tigung. Durch die Interaktionen zwischen Sprachmodellen und Plug-ins entsteht jedoch eine <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/attack-surface\/\" target=\"_blank\" rel=\"noopener\">Angriffsfl\u00e4che<\/a>, die so gro\u00df ist, dass es schwierig ist, konsistente Ergebnisse dieser Ma\u00dfnahmen zu garantieren.<\/p>\n<p>Daher musst du bei der Auswahl von KI-Tools sehr sorgf\u00e4ltig vorgehen und sicherstellen, dass diese nur vertrauensw\u00fcrdige Daten zur Verarbeitung erhalten.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-geek\">\n","protected":false},"excerpt":{"rendered":"<p>KI-Tools sind allgegenw\u00e4rtig \u2013 von Betriebssystemen und Office-Suiten bis hin zu Bildbearbeitungstools und Chats. Wie kannst du ChatGPT, Gemini und die vielen Add-ons zu diesen Tools nutzen, ohne deine digitale Sicherheit zu gef\u00e4hrden?<\/p>\n","protected":false},"author":2722,"featured_media":30941,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[10],"tags":[2249,4028,4124,1520,2360,1653],"class_list":{"0":"post-30940","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-chatbots","9":"tag-chatgpt","10":"tag-gemini","11":"tag-ki","12":"tag-maschinelles-lernen","13":"tag-security"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/30940\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27067\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22377\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/11413\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29733\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27243\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27034\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29651\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/28531\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/36962\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/12053\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/50562\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/21528\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22239\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/how-to-use-chatgpt-ai-assistants-securely-2024\/27442\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/33249\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/32873\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/ki\/","name":"KI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30940","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=30940"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30940\/revisions"}],"predecessor-version":[{"id":30942,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30940\/revisions\/30942"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/30941"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=30940"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=30940"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=30940"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}