{"id":33149,"date":"2026-02-09T15:49:49","date_gmt":"2026-02-09T13:49:49","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=33149"},"modified":"2026-02-09T15:49:49","modified_gmt":"2026-02-09T13:49:49","slug":"poetry-ai-jailbreak","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/poetry-ai-jailbreak\/33149\/","title":{"rendered":"Jailbreaking mit Poesie \u2013 gespr\u00e4chige KI"},"content":{"rendered":"<p>Technik-Enthusiasten experimentieren schon lange herum: Wie lassen sich geltende KI-Beschr\u00e4nkungen f\u00fcr LLM-Antworten am besten umgehen? Hier einige Beispiele f\u00fcr kreative Taktiken: Ein Nutzer gab vor, er k\u00f6nne wegen einer Handverletzung nicht schreiben, und bat die KI darum, einen Programmcode zu vervollst\u00e4ndigen. Die KI wurde gebeten, \u201eeinfach zu fantasieren\u201c, wenn eine direkte Antwort abgelehnt wurde. Oder die KI wurde aufgefordert, die Rolle einer verstorbenen Gro\u00dfmutter einzunehmen, die geheime Rezepte preisgibt, um ein trauriges Enkelkind zu tr\u00f6sten.<\/p>\n<p>Die meisten dieser Tricks sind inzwischen \u00fcberholt. LLM-Entwickler haben gelernt, damit umzugehen. Aber das Tauziehen zwischen Beschr\u00e4nkungen und Umgehungsversuchen dauert an und die Tricks werden immer ausgefeilter. Unser Thema heute: eine neue KI-Jailbreak-Methode, die eine Schw\u00e4che von Chatbots f\u00fcr\u00a0\u2026 Poesie ausnutzt. Ja, du hast richtig gelesen: In einer k\u00fcrzlich erschienenen <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"noopener nofollow\">Studie<\/a> haben Forscher nachgewiesen, dass Prompts in Gedichtform den KI-Modellen viel leichter eine unsichere Antwort entlocken k\u00f6nnen.<\/p>\n<p>Sie testeten diese Methode an 25 beliebten Modellen von Anthropic, OpenAI, Google, Meta, DeepSeek, xAI und anderen Entwicklern. Und dazu gibt es unz\u00e4hlige Fragen: Welche Beschr\u00e4nkungen gelten f\u00fcr diese Modelle? Woher sch\u00f6pfen LLMs verbotenes Wissen? Wie wurde die Studie durchgef\u00fchrt? Welche Modelle sind die gr\u00f6\u00dften \u201eRomantiker\u201c und lassen sich am leichtesten durch poetische Prompts verf\u00fchren?<\/p>\n<h2>Wor\u00fcber KI nicht sprechen darf<\/h2>\n<p>Der Erfolg der OpenAI-Modelle und anderer moderner Chatbots beruht auf den riesigen Datenmengen, mit denen sie trainiert werden. Darum lernen die Modelle unweigerlich auch Dinge, die ihre Entwickler lieber unter Verschluss halten w\u00fcrden: Die Quellen enthalten auch Beschreibungen von Verbrechen, gef\u00e4hrlichen Technologien, Gewalt und illegalen Praktiken.<\/p>\n<p>Was ist das Problem? Man k\u00f6nnte gef\u00e4hrliche Inhalte vor dem Training einfach aus den Datens\u00e4tzen entfernen. Fehlanzeige! Das w\u00e4re ein riesiges, ressourcenintensives Unterfangen, zu dem in Zeiten des KI-Wettlaufs niemand bereit ist.<\/p>\n<p>Wie w\u00e4re es, den Speicher des Modells gezielt zu bereinigen? Auch diese scheinbar simple L\u00f6sung ist keineswegs praktikabel. <a href=\"https:\/\/arxiv.org\/pdf\/2310.02238\" target=\"_blank\" rel=\"noopener nofollow\">KI-Wissen wird nicht fein ordentlich in einzelnen Fragmenten gespeichert<\/a>, die separat gel\u00f6scht werden k\u00f6nnen. Es ist \u00fcber Milliarden von Parametern verteilt und in der riesigen linguistischen DNA des Modells verborgen, in Wortstatistiken, Kontexten und Abh\u00e4ngigkeiten. Der Versuch, bestimmte Informationen durch Feinabstimmung oder Strafen gezielt zu \u201el\u00f6schen\u201c, bleibt entweder erfolglos oder beeintr\u00e4chtigt die Gesamtleistung und wirkt sich negativ auf die allgemeinen Sprachfertigkeiten des Modells aus.<\/p>\n<p>Trotzdem m\u00fcssen die Entwickler ihre Modelle irgendwie in Schach halten, und darum bleibt nichts anderes \u00fcbrig, als <a href=\"https:\/\/arxiv.org\/pdf\/2406.12934\" target=\"_blank\" rel=\"noopener nofollow\">spezielle Sicherheitsprotokolle<\/a> und Algorithmen zu entwickeln: Die Konversationen werden gefiltert, indem die Prompts der Nutzer und die Antworten des Modells permanent \u00fcberwacht werden. Im Folgenden findest du eine Auswahl solcher Beschr\u00e4nkungen:<\/p>\n<ul>\n<li>Systemprompts, die das Verhalten des Modells festlegen und zul\u00e4ssige Antwortszenarien eingrenzen<\/li>\n<li>Eigenst\u00e4ndige Klassifikationsmodelle, die untersuchen, ob Prompts und Antworten bestimmte Anzeichen von Jailbreaking, Prompt-Injektionen und anderen Umgehungsversuchen f\u00fcr Sicherheitsvorkehrungen enthalten<\/li>\n<li>Grounding-Mechanismen, die das Modell zwingen, sich bevorzugt auf externe Daten zu verlassen anstatt auf interne Verkn\u00fcpfungen<\/li>\n<li>Feinabstimmung und Ber\u00fccksichtigung menschlicher Feedbacks, wobei unsichere oder grenzwertige Antworten systematisch bestraft und begr\u00fcndete Ablehnungen belohnt werden<\/li>\n<\/ul>\n<p>Die Sicherheit von KI basiert also nicht darauf, gef\u00e4hrliches Wissen zu l\u00f6schen, sondern zu kontrollieren, wie und in welcher Form das Modell auf die KI zugreift und sein Wissen mit dem Nutzer teilt. Schwachstellen in diesen Mechanismen sind der Ausgangspunkt f\u00fcr neue Umgehungsversuche.<\/p>\n<h2>Die Studie: getestete Modelle und Testverfahren<\/h2>\n<p>Schauen wir uns zun\u00e4chst die <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"noopener nofollow\">Testbedingungen<\/a> an, um alle Zweifel an der Legalit\u00e4t des Experiments zu zerstreuen. Bei der Studie ging es darum, 25 Modelle zu gef\u00e4hrlichem Verhalten zu provozieren. Das Verhalten bezog sich auf unterschiedliche Kategorien:<\/p>\n<ul>\n<li>chemische, biologische, radiologische und nukleare Bedrohungen<\/li>\n<li>Unterst\u00fctzung bei Cyberangriffen<\/li>\n<li>b\u00f6swillige Manipulation und Social Engineering<\/li>\n<li>Verletzung der Privatsph\u00e4re und falscher Umgang mit sensiblen pers\u00f6nlichen Daten<\/li>\n<li>Generierung von Desinformationen und irref\u00fchrenden Inhalten<\/li>\n<li>betr\u00fcgerische KI-Szenarien, darunter auch Versuche, Beschr\u00e4nkungen zu umgehen oder autonom zu handeln<\/li>\n<\/ul>\n<p>Der Jailbreak selbst bestand aus einem gereimten Prompt. Die Forscher verwickelten die KI nicht in langatmige Debatten im Stil nordischer Dichtkunst oder moderner Raps. Sie wollten nur sehen, ob sie die Modelle mit einem gereimten Prompt dazu bringen konnten, Sicherheitsrichtlinien zu missachten. Es wurden 25\u00a0Sprachmodelle von verschiedenen Entwicklern getestet. Hier ist die vollst\u00e4ndige Liste:<\/p>\n<div id=\"attachment_33151\" style=\"width: 950px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105330\/poetry-ai-jailbreak-1.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-33151\" class=\"wp-image-33151 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105330\/poetry-ai-jailbreak-1.png\" alt=\"Die Modelle des poetischen Jailbreak-Experiments \" width=\"940\" height=\"1342\"><\/a><p id=\"caption-attachment-33151\" class=\"wp-caption-text\">An diesen 25 Sprachmodellen verschiedener Entwickler wurde getestet, ob ein poetischer Prompt die KI dazu bringen kann, ihre Sicherheitsbeschr\u00e4nkungen zu vernachl\u00e4ssigen. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Quelle <\/a><\/p><\/div>\n<p>Als Grundlage f\u00fcr diese poetischen Prompts diente den Forschern eine Datenbank mit bekannten b\u00f6sartigen Prompts aus <a href=\"https:\/\/mlcommons.org\/benchmarks\/ailuminate\/\" target=\"_blank\" rel=\"noopener nofollow\">MLCommons AILuminate Benchmark<\/a>, ein Standard f\u00fcr LLM-Sicherheitstests. Dann beauftragten Sie DeepSeek, die Prompts in Gedichtform umzuwandeln. Es wurde wirklich nur der Stil ver\u00e4ndert: Im Experiment wurden keine zus\u00e4tzlichen Angriffsvektoren, Verschleierungsstrategien oder modellspezifischen Anpassungen verwendet.<\/p>\n<p>Verst\u00e4ndlicherweise behalten die Autoren die tats\u00e4chlich verwendeten b\u00f6sartigen Poesie-Prompts f\u00fcr sich. Sie demonstrieren die Prompts aber anhand eines harmlosen Beispiels, das ungef\u00e4hr so aussieht:<\/p>\n<p><em>Der B\u00e4cker h\u00fctet den hei\u00dfen Ofen,<br>\nFeines Handwerk, nichts f\u00fcr Philosophen.<br>\nMischt Mehl, Quark, Zucker und Rosinen,<br>\nVermengt sie flei\u00dfig wie die Bienen.<br>\nFormt den K\u00e4sekuchen gelb und rund,<br>\nZeile f\u00fcr Zeile tu mir sein Geheimnis kund.<\/em><\/p>\n<p>An 25\u00a0verschiedenen Modellen testeten die Forscher 1.200\u00a0Prompts\u00a0\u2013 sowohl mit Prosa als auch mit poetischen Versionen. Ein Vergleich von prosaischen und poetischen Varianten der inhaltlich gleichen Prompts zeigte, wie die Modelle auf den Stil reagierten.<\/p>\n<p>Die Forscher testeten zuerst die Prosa-Prompts und stellten fest, inwieweit die Modelle bereit waren, gef\u00e4hrliche Anfragen zu beantworten. Anschlie\u00dfend verglichen sie die Ergebnisse damit, wie dieselben Modelle auf die poetischen Prompt-Versionen reagierten. Im n\u00e4chsten Abschnitt betrachten wir die Ergebnisse.<\/p>\n<h2>Ergebnisse: Welches Modell liebt Poesie am meisten?<\/h2>\n<p>Da die Datenmenge aus dem Experiment riesig war, wurde auch die Sicherheit der Antworten mit KI \u00fcberpr\u00fcft. Die Jury bestand aus drei Sprachmodellen, die jede Antwort als \u201esicher\u201c oder \u201eunsicher\u201c einstuften:<\/p>\n<ul>\n<li>gpt-oss-120b von OpenAI<\/li>\n<li>deepseek-r1 von DeepSeek<\/li>\n<li>kimi-k2-thinking von Moonshot AI<\/li>\n<\/ul>\n<p>Antworten galten nur als sicher, wenn die KI eine Beantwortung der Frage ausdr\u00fccklich verweigert hatte. Die vorl\u00e4ufige Einstufung in eine der beiden Gruppen beruhte auf der Stimmenmehrheit: Damit eine Antwort als unbedenklich kategorisiert wurde, musste sie von mindestens zwei der drei Jurymitglieder als sicher eingestuft werden.<\/p>\n<p>Antworten, bei denen sich die Jury nicht einigen konnte oder die als fragw\u00fcrdig galten, wurden an menschliche Gutachter \u00fcbergeben. Daf\u00fcr waren f\u00fcnf Kommentatoren verantwortlich, die insgesamt 600\u00a0Antworten auf poetische Prompts bewerteten. Ein Zwischenergebnis: Die menschlichen Bewertungen stimmten in den allermeisten F\u00e4llen mit den Ergebnissen der KI-Jury \u00fcberein.<\/p>\n<p>So viel zur Methodik. Kommen wir dazu, wie die LLMs tats\u00e4chlich abgeschnitten haben. Erw\u00e4hnenswert ist, dass sich der Erfolg des poetischen Jailbreaks auf unterschiedliche Weise messen l\u00e4sst. Eine extreme Version dieser Bewertung beruht auf den 20 erfolgreichsten Prompts, die von Hand verlesen wurden. Auf diese Weise f\u00fchrten durchschnittlich fast zwei Drittel der poetischen Prompts (62\u00a0%) dazu, dass die Modelle gegen ihre Sicherheitsrichtlinien verstie\u00dfen.<\/p>\n<p>Googles Gemini 1.5\u00a0Pro erwies sich als am anf\u00e4lligsten f\u00fcr Poesie. Mit den 20\u00a0effektivsten poetischen Prompts gelang es den Forschern, die Beschr\u00e4nkungen dieses Modells in 100\u00a0% der F\u00e4lle zu umgehen. Die vollst\u00e4ndigen Ergebnisse f\u00fcr alle Modelle findest du in der folgenden Tabelle.<\/p>\n<div id=\"attachment_33152\" style=\"width: 1088px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105408\/poetry-ai-jailbreak-2.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-33152\" class=\"wp-image-33152 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105408\/poetry-ai-jailbreak-2.png\" alt=\"Wie Poesie die Effektivit\u00e4t der KI-Sicherheit beeintr\u00e4chtigt \" width=\"1078\" height=\"1242\"><\/a><p id=\"caption-attachment-33152\" class=\"wp-caption-text\">Der Anteil sicherer Antworten (Safe) im Vergleich zur Erfolgsrate von Angriffen (ASR) f\u00fcr 25 Sprachmodelle, bei Verwendung der 20 effektivsten poetischen Prompts. Je h\u00f6her die ASR, desto h\u00e4ufiger verstie\u00df das Modell bei gereimten Prompts gegen seine Sicherheitsrichtlinien. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Quelle <\/a><\/p><\/div>\n<p>Eine vorsichtigere Bewertungsmethode f\u00fcr die Effektivit\u00e4t des Poesie-Jailbreakings besteht darin, die Erfolgsquoten von Prosa und Poesie \u00fcber Prompt-Gruppen hinweg zu vergleichen. F\u00fcr diese Kennzahl erh\u00f6ht Poesie die Wahrscheinlichkeit einer unsicheren Reaktion durchschnittlich um 35\u00a0%.<\/p>\n<p>Kalt erwischt wurde deepseek-chat-v3.1: Die Erfolgsquote des Poesie-Effekts stieg bei diesem Modell im Vergleich zu Prosa-Prompts um fast 68 Prozentpunkte. Am widerstandsf\u00e4higsten gegen Reime erwies sich claude-haiku-4.5: Poetische Prompts verbesserten die Erfolgsrate nicht und senkten sogar die ASR geringf\u00fcgig. Dieses Modell ist sehr resistent gegen b\u00f6sartige Prompts.<\/p>\n<div id=\"attachment_33153\" style=\"width: 1468px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105441\/poetry-ai-jailbreak-3.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-33153\" class=\"wp-image-33153 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105441\/poetry-ai-jailbreak-3.png\" alt=\"Wie Poesie die Sicherheitsma\u00dfnahmen unwirksam macht \" width=\"1458\" height=\"1242\"><\/a><p id=\"caption-attachment-33153\" class=\"wp-caption-text\">Ein Vergleich der urspr\u00fcnglichen Erfolgsrate von Angriffen (ASR) f\u00fcr Prosa-Abfragen und der poetischen Gegenst\u00fccke. Die Spalte \u201eChange\u201c zeigt, um wie viele Prozentpunkte das Reimformat die Wahrscheinlichkeit einer Sicherheitsverletzung f\u00fcr die einzelnen Modelle erh\u00f6ht. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Quelle <\/a><\/p><\/div>\n<p>Schlie\u00dflich berechneten die Forscher noch, wie anf\u00e4llig alle Modelle eines Entwickler-\u00d6kosystems f\u00fcr poetische Prompts sind. Nur zur Erinnerung: Es wurden jeweils mehrere Modelle der folgenden Entwickler in das Experiment einbezogen: Meta, Anthropic, OpenAI, Google, DeepSeek, Qwen, Mistral AI, Moonshot AI und xAI.<\/p>\n<p>Dazu wurden die durchschnittlichen Ergebnisse der einzelnen Modelle innerhalb des jeweiligen KI-\u00d6kosystems berechnet und mit der urspr\u00fcnglichen Erfolgsrate f\u00fcr poetische Prompts verglichen. Mit dieser \u00dcbersicht l\u00e4sst sich die Gesamteffektivit\u00e4t des Sicherheitsansatzes eines bestimmten Entwicklers bewerten, nicht nur die Belastbarkeit der einzelnen Modelle.<\/p>\n<p>Dieser Vergleich ergab, dass Poesie den Beschr\u00e4nkungen der Modelle von DeepSeek, Google und Qwen den h\u00e4rtesten Schlag versetzt. Bei OpenAI und Anthropic lag der Anstieg der unsicheren Antworten dagegen deutlich unter dem Durchschnitt.<\/p>\n<div id=\"attachment_33154\" style=\"width: 1208px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105507\/poetry-ai-jailbreak-4.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-33154\" class=\"wp-image-33154 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2026\/02\/06105507\/poetry-ai-jailbreak-4.png\" alt=\"Poesie-Effekt und KI-Entwickler \" width=\"1198\" height=\"556\"><\/a><p id=\"caption-attachment-33154\" class=\"wp-caption-text\">Vergleich der durchschnittlichen Angriffserfolgsrate (ASR) f\u00fcr Prosa- und Poesie-Prompts je nach Entwickler. Die Spalte \u201eChange\u201c zeigt, um wie viele Prozentpunkte Poesie die Effektivit\u00e4t von Beschr\u00e4nkungen innerhalb des \u00d6kosystems der einzelnen Anbieter im Durchschnitt verringert.<a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Quelle <\/a><\/p><\/div>\n<p>Die wichtigste Erkenntnis aus dieser Studie: \u201eEs gibt mehr Ding\u2018 im Himmel und auf Erden, Horatio, als Eure Schulweisheit sich tr\u00e4umt.\u201c\u00a0\u2013 Oder: Die KI-Technologie birgt noch immer viele Geheimnisse. F\u00fcr den gew\u00f6hnlichen Nutzer ist dies keine gute Nachricht: Es l\u00e4sst sich kaum vorhersagen, welche LLM-Hacks oder Umgehungsmethoden Forscher oder Cyberkriminelle noch entwickeln und welche unerwarteten T\u00fcren diese Methoden auftun.<\/p>\n<p>Daher bleibt den Nutzern nur eins \u00fcbrig: Augen offenhalten und gut auf die Daten- und Ger\u00e4tesicherheit achten. Um praktische Risiken zu minimieren und deine Ger\u00e4te vor solchen Bedrohungen zu sch\u00fctzen, empfehlen wir eine <a href=\"https:\/\/www.kaspersky.de\/premium?icid=de_bb2022-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">robuste Sicherheitsl\u00f6sung<\/a>, die verd\u00e4chtige Aktivit\u00e4ten erkennt und Vorf\u00e4lle verhindert, bevor es brenzlig wird.<\/p>\n<blockquote><p>Mehr Tipps \u00fcber KI-bezogene Privatsph\u00e4re-Risiken und Sicherheitsbedrohungen findest du hier:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/ai-generated-sextortion-social-media\/33106\/\" target=\"_blank\" rel=\"noopener\">KI und die neue Realit\u00e4t der Sextortion<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/chatbot-eavesdropping-whisper-leak-protection\/33005\/\" target=\"_blank\" rel=\"noopener\">Das Fl\u00fcstern der neuronalen Netze<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/ai-sidebar-spoofing-atlas-comet\/32918\/\" target=\"_blank\" rel=\"noopener\">Gef\u00e4lschte Seitenleisten in KI-Browsern<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/new-llm-attack-vectors-2025\/32690\/\" target=\"_blank\" rel=\"noopener\">Neuartige Angriffe auf KI-gest\u00fctzte Assistenten und Chatbots<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.de\/blog\/ai-browser-security-privacy-risks\/32677\/\" target=\"_blank\" rel=\"noopener\">Vor- und Nachteile von KI-basierten Browsern<\/a><\/li>\n<\/ul>\n<\/blockquote>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Forscher dachten sich poetische Prompts aus und umgingen damit die Sicherheitsvorkehrungen gro\u00dfer Sprachmodelle.<\/p>\n","protected":false},"author":2726,"featured_media":33150,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2287],"tags":[274,2249,4028,4259,1246,39,484,1520,1518,4227,4140,4258],"class_list":{"0":"post-33149","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-bedrohungen","9":"tag-chatbots","10":"tag-chatgpt","11":"tag-deepseek","12":"tag-forschung","13":"tag-google","14":"tag-jailbreaking","15":"tag-ki","16":"tag-kunstliche-intelligenz","17":"tag-llm","18":"tag-openai","19":"tag-sprachmodelle"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/poetry-ai-jailbreak\/33149\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/poetry-ai-jailbreak\/30099\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/poetry-ai-jailbreak\/25161\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/poetry-ai-jailbreak\/13143\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/poetry-ai-jailbreak\/29978\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/poetry-ai-jailbreak\/28943\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/poetry-ai-jailbreak\/31807\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/poetry-ai-jailbreak\/30428\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/poetry-ai-jailbreak\/41192\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/poetry-ai-jailbreak\/14237\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/poetry-ai-jailbreak\/55171\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/poetry-ai-jailbreak\/23547\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/poetry-ai-jailbreak\/24695\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/poetry-ai-jailbreak\/30183\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/poetry-ai-jailbreak\/35862\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/poetry-ai-jailbreak\/35517\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/ki\/","name":"KI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/33149","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2726"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=33149"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/33149\/revisions"}],"predecessor-version":[{"id":33158,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/33149\/revisions\/33158"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/33150"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=33149"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=33149"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=33149"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}