{"id":30173,"date":"2023-05-30T10:50:16","date_gmt":"2023-05-30T08:50:16","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=30173"},"modified":"2023-05-30T10:50:16","modified_gmt":"2023-05-30T08:50:16","slug":"ai-government-regulation","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/ai-government-regulation\/30173\/","title":{"rendered":"Der richtige Umgang mit k\u00fcnstlicher Intelligenz"},"content":{"rendered":"<p>Ich bin inzwischen ein wenig genervt von all den Nachrichten \u00fcber k\u00fcnstliche Intelligenz, aber ich denke, ich werde mich wohl noch ein wenig l\u00e4nger damit abfinden m\u00fcssen, da sicher noch mindestens ein oder zwei Jahre lang ununterbrochen dar\u00fcber gesprochen werden wird. Die Entwicklung der KI wird dann nat\u00fcrlich nicht aufh\u00f6ren; nur werden Journalisten, Blogger, TikToker, Twitterer und andere Berichterstatter dieses Thema irgendwann satthaben. Doch im Moment wird ihr Eifer nicht nur von den Tech-Giganten angeheizt, sondern auch von den Regierungen: So plant Gro\u00dfbritannien die Einf\u00fchrung einer <a href=\"https:\/\/www.reuters.com\/world\/uk\/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28\/\" target=\"_blank\" rel=\"noopener nofollow\">dreigleisigen KI-Regulierung<\/a>; China hat den Entwurf eines KI-Gesetzes zur <a href=\"https:\/\/www.reuters.com\/technology\/china-releases-draft-measures-managing-generative-artificial-intelligence-2023-04-11\/\" target=\"_blank\" rel=\"noopener nofollow\">\u00f6ffentlichen Debatte<\/a> gestellt; die USA fordern eine \u201e<a href=\"https:\/\/www.reuters.com\/technology\/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11\/\" target=\"_blank\" rel=\"noopener nofollow\">algorithmische Verantwortlichkeit<\/a>\u201e; die EU <a href=\"https:\/\/www.reuters.com\/technology\/ai-booms-eu-lawmakers-wrangle-over-new-rules-2023-03-22\/\" target=\"_blank\" rel=\"noopener nofollow\">debattiert, verabschiedet jedoch bislang keine Gesetzesentw\u00fcrfe<\/a> in diesem Bereich, usw. usf. Die Zukunft verspricht Gro\u00dfes, doch bisher wurden die Entwicklung und der Einsatz von KI-Systemen in keinster Weise eingeschr\u00e4nkt; wie es aussieht, wird sich das jedoch bald \u00e4ndern.<\/p>\n<p>Eine Frage, \u00fcber die sich streiten l\u00e4sst, ist folgende: Brauchen wir \u00fcberhaupt eine staatliche KI-Regulierung? Wenn ja \u2013 warum, und wie sollte diese aussehen?<\/p>\n<h2>Was sollte reguliert werden?<\/h2>\n<p>Was ist k\u00fcnstliche Intelligenz? Tats\u00e4chlich wird der Begriff mittlerweile f\u00fcr viele Dinge verwendet \u2013 den Marketing-Abteilungen sei Dank (wenn man in diesem Fall \u00fcberhaupt von \u201eDank\u201c sprechen kann) \u2013 von hochmodernen generativen Modellen wie <a href=\"https:\/\/de.wikipedia.org\/wiki\/OpenAI#GPT-4\" target=\"_blank\" rel=\"noopener nofollow\">GPT-4<\/a> bis hin zu den einfachsten maschinellen Lernsystemen, die teilweise schon seit Jahrzehnten existieren. Erinnern Sie sich noch an <a href=\"https:\/\/de.wikipedia.org\/wiki\/Text_on_9_keys\" target=\"_blank\" rel=\"noopener nofollow\">\u04229<\/a> auf Tastenhandys? Haben Sie schon von der <a href=\"https:\/\/www.kaspersky.de\/blog\/humachine-intelligence-fighting-snow-shoes\/9757\/\" target=\"_blank\" rel=\"noopener\">automatischen Klassifizierung von Spam und sch\u00e4dlichen Dateien<\/a> geh\u00f6rt? Werfen Sie einen Blick auf die Filmempfehlungen auf Netflix? All diese bekannten Technologien basieren auf maschinellen Lernalgorithmen (ML), auch bekannt als \u201eKI\u201c.<\/p>\n<p>Wir bei Kaspersky setzen solche Technologien seit fast 20 Jahren in unseren Produkten ein, wobei wir die Bezeichnung \u201emaschinelles Lernen\u201c vorziehen \u2013 schon allein deshalb, weil der Begriff \u201ek\u00fcnstliche Intelligenz\u201c die meisten Menschen an <a href=\"https:\/\/de.wikipedia.org\/wiki\/HAL_9000\" target=\"_blank\" rel=\"noopener nofollow\">sprechende Supercomputer<\/a> in <a href=\"https:\/\/de.wikipedia.org\/wiki\/2001:_Odyssee_im_Weltraum\" target=\"_blank\" rel=\"noopener nofollow\">Raumschiffen<\/a> und andere <a href=\"https:\/\/de.wikipedia.org\/wiki\/Figuren_aus_Star_Wars#R2-D2\" target=\"_blank\" rel=\"noopener nofollow\">Dinge<\/a> aus <a href=\"https:\/\/de.wikipedia.org\/wiki\/Figuren_aus_Star_Wars#C-3PO\" target=\"_blank\" rel=\"noopener nofollow\">Science-Fiction-Filmen<\/a> erinnert. Allerdings m\u00fcssen solche sprechenden, denkenden Computer und Droiden voll und ganz zu einem menschen\u00e4hnlichen Denken f\u00e4hig sein, um <a href=\"https:\/\/de.wikipedia.org\/wiki\/Artificial_General_Intelligence\" target=\"_blank\" rel=\"noopener nofollow\">k\u00fcnstliche allgemeine Intelligenz<\/a> (AGI) oder k\u00fcnstliche <a href=\"https:\/\/de.wikipedia.org\/wiki\/Superintelligenz\" target=\"_blank\" rel=\"noopener nofollow\">Superintelligenz<\/a> (ASI) zu beherrschen. Doch weder AGI noch ASI sind bisher erfunden worden und auch in absehbarer Zeit d\u00fcrfte dies nicht geschehen.<\/p>\n<p>Jedenfalls, wenn alle Arten der KI mit der gleichen Messlatte gemessen und vollst\u00e4ndig reguliert werden, werden die gesamte IT-Industrie und viele verwandte Branchen nicht gut dabei wegkommen. Wenn wir (Kaspersky) zum Beispiel jemals die Zustimmung aller \u201eAutoren\u201c unserer Trainingssets einholen m\u00fcssten, st\u00fcnden wir als Unternehmen f\u00fcr Informationssicherheit ziemlich bl\u00f6d da. Wir lernen aus Malware und Spam und speisen das daraus gewonnene Wissen in unser maschinelles Lernsystem ein, w\u00e4hrend die betreffenden Urheber es in der Regel vorziehen, ihre Kontaktdaten zu verbergen (wer h\u00e4tte das gedacht?!). Und wenn man bedenkt, dass wir bereits seit fast 20 Jahren Daten sammeln und unsere Algorithmen trainieren \u2013 wie weit in die Vergangenheit m\u00fcssten wir dann eigentlich reisen?<\/p>\n<p>Aus diesem Grund ist es wichtig, dass die Gesetzgeber nicht den Marketingexperten, sondern den Experten f\u00fcr maschinelles Lernen und KI Geh\u00f6r schenken und eine m\u00f6gliche Regulierung gezielt und zielgerichtet diskutieren: z. B. durch den Einsatz von Multifunktionssystemen, die auf gro\u00dfen Mengen offener Daten trainiert wurden, oder von Systemen, die Entscheidungen mit hohem Verantwortungs- und Risikoniveau treffen.<\/p>\n<p>Neue KI-Anwendungen werden zudem eine h\u00e4ufige \u00dcberarbeitung der Vorschriften erfordern.<\/p>\n<h2>Wieso regulieren?<\/h2>\n<p>Wer <a href=\"https:\/\/www.kaspersky.de\/blog\/machine-learning-nine-challenges\/17511\/\" target=\"_blank\" rel=\"noopener\">unsere Artikel \u00fcber die Vorz\u00fcge und Nachteile des maschinellen Lernens<\/a> noch nicht gelesen hat, sei daran erinnert, dass es bei jeder KI drei wesentliche Probleme gibt:<\/p>\n<ul>\n<li>Es ist nicht klar, wie gut die f\u00fcr sie verwendeten Trainingsdaten waren\/sind.<\/li>\n<li>Es ist v\u00f6llig unklar, was die KI aus diesem Datenbestand \u201everstehen\u201c konnte, <a href=\"https:\/\/arxiv.org\/abs\/2004.07780\" target=\"_blank\" rel=\"noopener nofollow\">oder wie sie ihre Entscheidungen trifft<\/a>.<\/li>\n<li>Und das Wichtigste: der Algorithmus kann sowohl von seinen Entwicklern als auch von seinen Nutzern missbr\u00e4uchlich verwendet werden.<\/li>\n<\/ul>\n<p>So kann vom b\u00f6swilligen Missbrauch der KI bis zur unreflektierten Befolgung von KI-Entscheidungen praktisch alles passieren. Hier nur einige <a href=\"https:\/\/www.kaspersky.de\/blog\/ai-fails\/14540\/\" target=\"_blank\" rel=\"noopener\">Beispiele<\/a> aus dem realen Leben: <a href=\"https:\/\/www.ntsb.gov\/investigations\/AccidentReports\/Reports\/HAR1903.pdf\" target=\"_blank\" rel=\"noopener nofollow\">fatale Fehler von Autopiloten<\/a>; Deepfakes (1, 2, 3), die mittlerweile in Memes und sogar in den Nachrichten zu finden sind; ein bl\u00f6der Fehler <a href=\"https:\/\/algorithmwatch.org\/en\/algorithm-school-system-italy\/\" target=\"_blank\" rel=\"noopener nofollow\">bei der Einstellung von Lehrkr\u00e4ften<\/a>; die <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\" target=\"_blank\" rel=\"noopener nofollow\">Festnahme eines Ladendiebs durch die Polizei, der sich allerdings als der Falsche herausstellt<\/a>; und ein <a href=\"https:\/\/www.reuters.com\/article\/amazon-com-jobs-automation\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH?edition-redirect=in\" target=\"_blank\" rel=\"noopener nofollow\">frauenfeindliches KI-Rekrutierungstool<\/a>. Dar\u00fcber hinaus kann jede KI mit Hilfe ma\u00dfgeschneiderter feindlicher Datensamples angegriffen werden: <a href=\"https:\/\/www.kaspersky.de\/blog\/ai-fails\/14540\/\" target=\"_blank\" rel=\"noopener\">Fahrzeuge k\u00f6nnen mit Aufklebern ausgetrickst werden,<\/a> aus GPT-3 k\u00f6nnen <a href=\"https:\/\/venturebeat.com\/2020\/12\/16\/google-apple-and-others-show-large-language-models-trained-on-public-data-expose-personal-information\/\" target=\"_blank\" rel=\"noopener nofollow\">pers\u00f6nliche Informationen<\/a> extrahiert werden, und auch <a href=\"https:\/\/securelist.com\/how-to-confuse-antimalware-neural-networks-adversarial-attacks-and-protection\/102949\/\" target=\"_blank\" rel=\"noopener\">Anti-Virus oder EDR k\u00f6nnen get\u00e4uscht werden<\/a>. Nebenbei bemerkt: <a href=\"https:\/\/en.wikipedia.org\/wiki\/Pineapple_Water_for_the_Fair_Lady#The_Anti-Aircraft_Codes_of_Al_Efesbi\" target=\"_blank\" rel=\"noopener nofollow\">Angriffe auf die KI von Kampfdrohnen<\/a>, wie sie in Science-Fiction-Filmen beschrieben werden, scheinen gar nicht mehr so weit hergeholt zu sein.<\/p>\n<p>Zusammenfassend l\u00e4sst sich sagen, dass der Einsatz von KI noch keine wirklich massiven Probleme verursacht hat, das Potenzial daf\u00fcr aber eindeutig vorhanden ist. Die Priorit\u00e4ten der Regulierung sollten daher klar sein:<\/p>\n<ol>\n<li>Zwischenf\u00e4lle bei kritischen Infrastrukturen (Fabriken\/Schiffe\/Strom\u00fcbertragungsleitungen\/Kernkraftwerke) m\u00fcssen verhindert werden.<\/li>\n<li>Physische Bedrohungen (fahrerlose Fahrzeuge, Fehldiagnosen von Krankheiten) m\u00fcssen minimiert werden.<\/li>\n<li>Pers\u00f6nliche Sch\u00e4den und Gesch\u00e4ftsrisiken (Festnahmen oder Einstellungen aufgrund von Sch\u00e4delmessungen, der falschen Einsch\u00e4tzung von Nachfrage\/Beschaffung usw.) m\u00fcssen minimiert werden.<\/li>\n<\/ol>\n<p>Die Regulierung sollte darauf abzielen, Nutzer und KI-Anbieter durch entsprechende Ma\u00dfnahmen gleicherma\u00dfen dazu zu verpflichten, das Risiko, dass solche negativen Ereignisse eintreten, m\u00f6glichst gering zu halten. Und je gr\u00f6\u00dfer das Risiko ist, desto aktiver sollten sie dazu gezwungen werden.<\/p>\n<p>Es gibt noch eine andere Sorge, die oft im Zusammenhang mit KI ge\u00e4u\u00dfert wird: die Notwendigkeit, moralische und ethische Normen einzuhalten und sozusagen f\u00fcr psychologischen Komfort zu sorgen. In diesem Zusammenhang werden Warnungen ausgegeben, die darauf hinweisen, dass es sich um ein nicht existierendes (von der KI entworfenes) Objekt handelt oder dass man mit einem Roboter und nicht mit einem Menschen kommuniziert, sowie Hinweise darauf, <a href=\"https:\/\/www.kaspersky.com\/blog\/neural-networks-data-leaks\/47992\/\" target=\"_blank\" rel=\"noopener nofollow\">dass bei der Schulung der KI das Urheberrecht beachtet wurde<\/a>, usw. Aber wozu \u00fcberhaupt? Damit Gesetzgeber und KI-Anbieter nicht zur Zielscheibe eines aufgebrachten Haufens werden! Und das ist in einigen Teilen der Welt ein sehr reales Anliegen (denken Sie beispielsweise an die <a href=\"https:\/\/www.theguardian.com\/world\/2016\/jan\/26\/french-taxi-drivers-block-paris-roads-in-uber-protest\" target=\"_blank\" rel=\"noopener nofollow\">Proteste gegen Uber<\/a>).<\/p>\n<h2>Regulierung, aber wie?<\/h2>\n<p>Der einfachste Weg, die KI zu regulieren, best\u00fcnde darin, sie komplett zu verbieten, aber dieser Ansatz scheint noch nicht auf dem Tisch zu liegen. Zudem ist es nicht viel leichter, KI zu verbieten als Computer. Alle vern\u00fcnftigen Regulierungsversuche sollten daher dem Grundsatz \u201eje gr\u00f6\u00dfer das Risiko, desto strenger die Auflagen\u201c folgen.<\/p>\n<p>Die maschinellen Lernmodelle, die f\u00fcr etwas recht Banales \u2013 wie Kaufempfehlungen im Einzelhandel \u2013 verwendet werden, k\u00f6nnen ohne Regulierung auskommen, aber je ausgefeilter das Modell \u2013 oder je sensibler der Anwendungsbereich \u2013 desto drastischer die Anforderungen an Systemanbieter und Nutzer. Zum Beispiel:<\/p>\n<ul>\n<li>Vorlage des Codes oder des Trainingsdatensatzes eines Modells zur Pr\u00fcfung durch Regulierungsbeh\u00f6rden oder Experten.<\/li>\n<li>Nachweis der Stabilit\u00e4t eines Trainingsdatensatzes, auch in Bezug auf Voreingenommenheit, Urheberrecht und so weiter.<\/li>\n<li>Nachweis der Sinnhaftigkeit des KI-\u201eOutputs\u201c, <a href=\"https:\/\/fortune.com\/2023\/04\/17\/google-ceo-sundar-pichai-artificial-intelligence-bard-hallucinations-unsolved\/\" target=\"_blank\" rel=\"noopener nofollow\">frei von Hirngespinsten<\/a>.<\/li>\n<li>Kennzeichnung von KI-Vorg\u00e4ngen und -Ergebnissen.<\/li>\n<li>Aktualisierung eines Modells und eines Trainingsdatensatzes, z. B. das Herausfiltern von Menschen mit einer bestimmten Hautfarbe aus den Quelldaten oder das Ausblenden chemischer Formeln f\u00fcr Sprengstoffe in der Ausgabe des Modells.<\/li>\n<li>Testen der KI auf \u201esch\u00e4dliche Daten\u201c und Aktualisieren ihres Verhaltens, falls erforderlich.<\/li>\n<li>Kontrolle dessen, wer eine bestimmte KI benutzt und warum. Ablehnung bestimmter Arten der Nutzung.<\/li>\n<li>Training gro\u00dfer KI oder von KI, die f\u00fcr ein bestimmtes Gebiet gilt, nur mit Genehmigung der Aufsichtsbeh\u00f6rde.<\/li>\n<li>Nachweis, dass der Einsatz von KI zur L\u00f6sung eines bestimmten Problems sicher ist. Diese Vorgehensweise ist f\u00fcr die IT-Branche sehr exotisch, aber beispielsweise Pharmaunternehmen, Flugzeugherstellern und vielen anderen Branchen, in denen Sicherheit an erster Stelle steht, mehr als vertraut. Zun\u00e4chst m\u00fcssten f\u00fcnf Jahre lang eingehende Tests erfolgen, gefolgt von der Genehmigung der Aufsichtsbeh\u00f6rde, und erst dann k\u00f6nnte ein Produkt f\u00fcr den allgemeinen Gebrauch freigegeben werden.<\/li>\n<\/ul>\n<p>Diese letzte Ma\u00dfnahme erscheint \u00fcberm\u00e4\u00dfig strikt, aber nur so lange, bis man \u00fcber Zwischenf\u00e4lle erf\u00e4hrt, die dazu f\u00fchrten, <a href=\"https:\/\/www.nature.com\/articles\/538311a#\/b9\" target=\"_blank\" rel=\"noopener nofollow\">dass KI die Behandlungspriorit\u00e4ten f\u00fcr Patienten mit akutem Asthma und Lungenentz\u00fcndung falsch festlegte<\/a> und versuchte, sie lieber nach Hause als auf eine Intensivstation zu schicken.<\/p>\n<p>Die Durchf\u00fchrungsma\u00dfnahmen k\u00f6nnen von Geldstrafen f\u00fcr Verst\u00f6\u00dfe gegen die KI-Vorschriften (\u00e4hnlich den europ\u00e4ischen Strafen f\u00fcr Verst\u00f6\u00dfe gegen die DSGVO) bis hin zur Lizenzierung von KI-bezogenen Aktivit\u00e4ten und strafrechtlichen Sanktionen f\u00fcr Verst\u00f6\u00dfe gegen die Gesetzgebung (wie in China vorgeschlagen) reichen.<\/p>\n<h2>Wie geht es richtig?<\/h2>\n<p>Die folgende Zusammenfassung gibt meine pers\u00f6nliche Meinung wieder \u2013 sie basiert jedoch auf 30 Jahren aktiver Verfolgung fortschrittlicher technologischer Entwicklungen in der Cybersicherheitsbranche: von maschinellem Lernen bis hin zu \u201eSecure-by-Design\u201c-Systemen.<\/p>\n<p>Erstens: Wir ben\u00f6tigen eine Regulierung \u2013 unbedingt. Ohne eine solche wird die KI am Ende wie eine Stadt ohne Verkehrsregeln aussehen. Oder, was noch relevanter ist, wie das Erfassen pers\u00f6nlicher Daten im Internet in den sp\u00e4ten 2000er Jahren, als fast jeder alle Daten sammelte, die er in die Finger bekam. Vor allem aber f\u00f6rdert die Regulierung die Selbstdisziplin der Marktteilnehmer.<\/p>\n<p>Andererseits m\u00fcssen wir die internationale Harmonisierung und Zusammenarbeit bei der Regulierung maximieren \u2013 \u00e4hnlich wie bei den technischen Standards in der Mobilkommunikation, im Internet und so weiter. Angesichts der modernen geopolitischen Realit\u00e4t h\u00f6rt sich das vielleicht utopisch an, ist aber deshalb nicht weniger w\u00fcnschenswert.<\/p>\n<p>Drittens muss die Regulierung nicht zu streng sein: Es w\u00e4re kurzsichtig, eine dynamische junge Branche wie diese durch \u00dcberregulierung zu ersticken. Trotzdem brauchen wir einen Mechanismus f\u00fcr eine regelm\u00e4\u00dfige \u00dcberarbeitung der Regeln, um mit den Entwicklungen der Technologie und des Marktes Schritt halten zu k\u00f6nnen.<\/p>\n<p>Viertens sollten die Regeln, die Risikostufen und die H\u00f6he der Schutzma\u00dfnahmen in Absprache mit einer gro\u00dfen Zahl einschl\u00e4gig erfahrener Experten festgelegt werden.<\/p>\n<p>Und f\u00fcnftens: Wir brauchen keine zehn Jahre zu warten. Ich habe schon vor \u00fcber einem Jahrzehnt auf die ernsthaften Risiken des Internet der Dinge und die Schwachstellen in industriellen Anlagen hingewiesen, w\u00e4hrend Gesetze wie das <a href=\"https:\/\/digital-strategy.ec.europa.eu\/de\/library\/cyber-resilience-act\" target=\"_blank\" rel=\"noopener nofollow\">Gesetz \u00fcber Cyberresilienz<\/a> erst letztes Jahr (als Entwurf!) erschienen sind.<\/p>\n<p>Aber genug der Worte, meine Damen und Herren! Und herzlichen Gl\u00fcckwunsch an diejenigen unter Ihnen, die diesen Artikel bis zum Ende gelesen haben \u2013 vielen Dank an Sie alle! Auf eine interessante \u2013 sichere \u2013 KI-gest\u00fctzte Zukunft!\u2026<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dass KI reguliert werden muss, ist offensichtlich, aber wie? Eugene Kaspersky sagt uns, wie es seiner Meinung nach funktionieren sollte.<\/p>\n","protected":false},"author":13,"featured_media":30174,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2287],"tags":[1521,274,1520,2360,4061,4067,1544],"class_list":{"0":"post-30173","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-ai","9":"tag-bedrohungen","10":"tag-ki","11":"tag-maschinelles-lernen","12":"tag-neuronale-netzwerke","13":"tag-staatliche-regulierung","14":"tag-technologien"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-government-regulation\/30173\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-government-regulation\/25686\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-government-regulation\/21105\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/ai-government-regulation\/10626\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ai-government-regulation\/28341\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-government-regulation\/25985\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-government-regulation\/26358\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-government-regulation\/28846\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ai-government-regulation\/27781\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-government-regulation\/35317\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-government-regulation\/11457\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-government-regulation\/48220\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-government-regulation\/20625\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ai-government-regulation\/21311\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ai-government-regulation\/33892\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-government-regulation\/26294\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-government-regulation\/31993\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-government-regulation\/31681\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/ki\/","name":"KI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30173","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/13"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=30173"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30173\/revisions"}],"predecessor-version":[{"id":30175,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30173\/revisions\/30175"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/30174"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=30173"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=30173"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=30173"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}