Jailbreaking mit Poesie – gesprächige KI
Forscher dachten sich poetische Prompts aus und umgingen damit die Sicherheitsvorkehrungen großer Sprachmodelle.
3 Beiträge
Forscher dachten sich poetische Prompts aus und umgingen damit die Sicherheitsvorkehrungen großer Sprachmodelle.
Hast du schon von Whisper Leak gehört? Während du mit einem KI-Assistenten chattest, kann ein Angreifer das Gesprächsthema erraten, trotz Verschlüsselung. Wir untersuchen, wie das überhaupt möglich ist, und wie du deine KI-Chats schützen kannst.
Wie Hacker Chatbot-Funktionen nutzen, um verschlüsselte Chats aus OpenAI ChatGPT, Microsoft Copilot und den meisten anderen KI-Chatbots wiederherzustellen.