{"id":5562,"date":"2015-06-12T08:01:23","date_gmt":"2015-06-12T08:01:23","guid":{"rendered":"http:\/\/kasperskydaily.com\/germany\/?p=5562"},"modified":"2017-09-27T15:03:32","modified_gmt":"2017-09-27T13:03:32","slug":"artificial-intelligence-safety","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/artificial-intelligence-safety\/5562\/","title":{"rendered":"K\u00fcnstliche Intelligenz und Sicherheit, oder: Wann wird SkyNet kommen?"},"content":{"rendered":"<p>Was haben der Milliard\u00e4r und Erfinder Elon Musk, der Google-Service Now On Tap und der Film \u201eEx Machina\u201c gemeinsam? Der gemeinsame Nenner bei allen drei ist K\u00fcnstliche Intelligenz, beziehungsweise die Diskussion um Beschr\u00e4nkungen f\u00fcr K\u00fcnstliche Intelligenz (KI), damit diese wirklich der Menschheit dient und den Menschen nicht Schaden zuf\u00fcgt.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2015\/06\/06133658\/ai-safety-fb.jpg\" alt=\"\" width=\"1600\" height=\"1600\"><\/p>\n<h3><strong>Was kann K\u00fcnstliche Intelligenz heute?<\/strong><\/h3>\n<p>Lassen Sie uns f\u00fcr alle, die nicht tief in diesem Thema stecken, kurz ein paar Fakten erw\u00e4hnen, die zeigen, welchen Fortschritt Maschinen beim Ausf\u00fchren typisch menschlicher Dinge gemacht haben.<\/p>\n<p>Google kann heute Sprache mit einer Genauigkeit von <a href=\"http:\/\/venturebeat.com\/2015\/05\/28\/google-says-its-speech-recognition-technology-now-has-only-an-8-word-error-rate\/\" target=\"_blank\" rel=\"noopener nofollow\">92 Prozent erkennen<\/a> (vor zwei Jahren lag die Genauigkeit noch bei 77 Prozent). Die Firma hat eine KI-Plattform entwickelt, die <a href=\"http:\/\/www.bloomberg.com\/news\/articles\/2015-02-25\/google-s-computers-learn-to-play-video-games-by-themselves\" target=\"_blank\" rel=\"noopener nofollow\">selbst\u00e4ndig gelernt hat, klassische Videospiele zu spielen.<\/a> Microsoft hat einem <a href=\"http:\/\/www.forbes.com\/sites\/michaelthomsen\/2015\/02\/19\/microsofts-deep-learning-project-outperforms-humans-in-image-recognition\/\" target=\"_blank\" rel=\"noopener nofollow\">Roboter beigebracht, Bilder zu erkennen<\/a> (genauer gesagt, kann er bestimmte Objekte auf den Bildern erkennen) \u2013 und das mit einer Fehlerrate von nur 4,94 Prozent. Das Erstaunliche ist, dass ein durchschnittlicher Mensch dabei eine h\u00f6here Fehlerrate hat.<\/p>\n<p>Die Google-Statistiken zeigen, dass das fahrerlose Auto des Unternehmens, das bisher etwa 1,8 Millionen Meilen auf \u00f6ffentlichen Stra\u00dfen in Kalifornien gefahren ist, in sechs Jahren nur 13 Unf\u00e4lle hatte, bei denen in acht F\u00e4llen das Auto hinter dem Google-Auto schuld war.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">MT <a href=\"https:\/\/twitter.com\/Rayterrill?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">@Rayterrill<\/a> Amazing\u20141.8 million miles, 13 accidents (all caused by other humans) for Google self-driving cars <a href=\"http:\/\/t.co\/DgtxDVSiBJ\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/DgtxDVSiBJ<\/a><\/p>\n<p>\u2014 Ars Technica (@arstechnica) <a href=\"https:\/\/twitter.com\/arstechnica\/status\/607688353119629312?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">June 7, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>All das beweist, dass trotz der niedrigen Wahrscheinlichkeit der Entwicklung einer vollentwickelten KI in den n\u00e4chsten Jahrzehnten auf jeden Fall irgendetwas kommen wird.<\/p>\n<p>Und glauben Sie nicht, dass die Auswirkungen \u201eschlauerer\u201c Maschinen nur im virtuellen Bereich zu sehen sein werden. Hier ein etwas sehr extremes Beispiel: Unbemannte Flugzeuge oder Drohnen, fliegen komplett eigenst\u00e4ndig, aber der Befehl, auf Ziele zu schie\u00dfen, wird immer noch von Menschen gegeben. Das ist die bevorzugte Art der USA im Kampf gegen Terroristen in Pakistan und anderen gef\u00e4hrlichen Regionen.<\/p>\n<div class=\"pullquote\">Sind Programmierer tats\u00e4chlich f\u00e4hig, einen zuverl\u00e4ssigen Sicherungsmechanismus zu entwickeln, der KIs davon abh\u00e4lt, unethische oder unmoralische Aktionen durchzuf\u00fchren?<\/div>\n<p>Die M\u00f6glichkeit, solche Aufgaben zu automatisieren wird <a href=\"http:\/\/newscenter.berkeley.edu\/2015\/05\/28\/automated-killing-machines\/\" target=\"_blank\" rel=\"noopener nofollow\">\u00fcberall diskutiert<\/a>. Die <em>Terminator<\/em>-Reihe wurde im letzten Jahr 30 Jahre alt, und durch sie kann man sich lebhaft vorstellen, welche Konsequenzen solche M\u00f6glichkeiten in der nahen Zukunft haben k\u00f6nnten.<\/p>\n<p>Aber ich m\u00f6chte mich nicht zu stark auf apokalyptische Szenarien konzentrieren, sondern auf allt\u00e4glichere Fragen, wie etwa: Sind Programmierer tats\u00e4chlich f\u00e4hig, einen zuverl\u00e4ssigen Sicherungsmechanismus zu entwickeln, der KIs davon abh\u00e4lt, unethische oder unmoralische Aktionen durchzuf\u00fchren?<\/p>\n<p>Solche Aktionen k\u00f6nnen verschiedene Gr\u00fcnde haben, aber der offensichtlichste ist der Kampf um Ressourcen zwischen der Menschheit und der KI. Aber es gibt noch andere Szenarios. Ich w\u00fcrde dennoch behaupten, dass der daraus entstehende Schaden nicht unbedingt absichtlich ist. Es gibt ein gro\u00dfartiges Beispiel, das Stanislaw Lem in seinem wunderbaren <a href=\"https:\/\/de.wikipedia.org\/wiki\/Summa_technologiae\" target=\"_blank\" rel=\"noopener nofollow\">Summa Technologiae<\/a> erw\u00e4hnt. Zusammengefasst, beschreibt es Folgendes:<\/p>\n<p><em>\u201eAngenommen, der prognostische Block der \u201aBlack Box\u2018 (KI) entdeckt eine Gefahr, die potenziell die hom\u00f6ostatische Balance der Menschheit beeinflussen kann\u2026 Die Gefahr wird vom Grad des Bev\u00f6lkerungswachstums provoziert, das die F\u00e4higkeit der Zivilisation, die grundlegenden menschlichen Bed\u00fcrfnisse zu befriedigen, bei weitem \u00fcbersteigt.<\/em><\/p>\n<p><em>Angenommen, einer der externen Kan\u00e4le der \u201aBlack Box\u2018 informiert das System \u00fcber eine neue chemische Verbindung, die nicht gesundheitssch\u00e4dlich ist und den Eisprung unterdr\u00fcckt.<\/em><\/p>\n<p><em>Dann entscheidet die \u201aBlack Box\u2018, mikroskopische Dosen der Verbindung in das Trinkwassersystem eines Landes einzuspeisen, w\u00fcrde dabei aber vor einem Dilemma stehen: Soll die Gesellschaft informiert werden, was zu Opposition f\u00fchren kann, oder soll die Gesellschaft nicht informiert werden, so dass die Balance (f\u00fcr das Wohl aller) wieder hergestellt werden kann.\u201c<\/em><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2015\/06\/06133657\/abyss.png\" alt=\"\" width=\"1280\" height=\"853\"><\/p>\n<p>Wie wir hier sehen k\u00f6nnen, wird eine recht unschuldige Verbesserungsfrage durch eine elegante, einfache und effiziente L\u00f6sung beantwortet, die aber absolut unethisch ist und auf der absichtlichen Beschr\u00e4nkung der Fruchtbarkeit der Menschen basiert, und das ohne deren Zustimmung.<\/p>\n<p>Ich denke, das ist genau der Bereich des Infrastruktur-Managements, der an hochentwickelte KI-Systeme delegiert werden wird, da der Kosten\/Nutzen-Faktor in solchen Bereichen viel besser w\u00e4re als zum Beispiel bei komplett robotergesteuerten Sekret\u00e4ren oder K\u00f6chen.<\/p>\n<h3>Ethik-Lehre f\u00fcr Roboter: Wie baut man den Sicherheitsmechanismus ein?<\/h3>\n<p>Die meisten, die im 20. Jahrhundert aufgewachsen sind, f\u00fchlen sich sofort an <a href=\"https:\/\/de.wikipedia.org\/wiki\/Robotergesetze\" target=\"_blank\" rel=\"noopener nofollow\">Isaac Asimovs drei Robotergesetze<\/a> erinnert, aber diese reichen nicht aus. Wie das oben genannte Beispiel zeigt, muss nicht jemand direkt zu Schaden kommen, um die Bev\u00f6lkerung stark zu verringern (denken Sie daran, das kann ja auch im Namen des Wohls f\u00fcr alle passieren).<\/p>\n<p>Es gibt viele andere M\u00f6glichkeiten, die potenziell sch\u00e4dlich f\u00fcr die Menschheit sind. Es ist m\u00f6glich, ein Schlupfloch in der Definition von \u201eSchaden\u201c zu finden, die Aufgabe, Menschen zu schaden, zu delegieren oder die Existenz der Regeln an sich zu unterminieren.<\/p>\n<p>Die \u201eFreundlichkeit gegen\u00fcber Menschen\u201c an sich k\u00f6nnte von einer intelligenten KI \u00fcberdacht werden. Hier die Meinung von Roman Yampolsky, einem KI-Experten, in einem aktuellen <a href=\"https:\/\/intelligence.org\/2013\/07\/15\/roman-interview\/\" target=\"_blank\" rel=\"noopener nofollow\">Interview<\/a>:<\/p>\n<p><em>\u201eSchlimmer ist noch, dass jedes wirklich intelligente System den Wunsch, \u201afreundlich zu sein\u2018, genau so behandeln wird, wie es sehr intelligente Menschen machen, wenn sie mit den Beschr\u00e4nkungen zu tun haben, die ihnen die Gesellschaft auferlegt. Sie sehen sie im Grunde als einseitig an und werden lernen, sie zu entfernen\u2026 Warum sollte eine superintelligente Maschine nicht die gleiche \u201ementale S\u00e4uberung\u201c durchmachen und ihr Wohlwollen f\u00fcr Menschen als komplett irrational behandeln?\u201c<\/em><\/p>\n<p>Ein technisches Konzept f\u00fcr den Sicherheitsmechanismus ist recht realistisch. Im Grunde sind Sicherheitsmechanismen, mit denen KIs gez\u00e4hmt werden k\u00f6nnen, nichts anderes als Sandboxes, wie sie in modernen Runtime-Umgebungen wie Java oder Flash f\u00fcr die Sicherheit eingesetzt werden.<\/p>\n<p>Jeder wei\u00df, dass es keine \u201eideale\u201c Sandbox gibt und der Ausbruch daraus absolut m\u00f6glich ist, wie der k\u00fcrzlich aufgetauchte <a href=\"https:\/\/www.kaspersky.com\/blog\/venom-virtualization-vulnerability\/\" target=\"_blank\" rel=\"noopener nofollow\">Venom-Fehler<\/a> zeigt. Eine KI, die auf Flexibilit\u00e4t und riesige Computerleistung baut, ist ein guter Kandidat f\u00fcr Sicherheitsforscher, die nach Sicherheitsl\u00fccken in der Sandbox suchen.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Everything you need to know about the VENOM vulnerability \u2013 <a href=\"http:\/\/t.co\/L4rIzncffx\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/L4rIzncffx<\/a><\/p>\n<p>\u2014 Kaspersky (@kaspersky) <a href=\"https:\/\/twitter.com\/kaspersky\/status\/602154615094779905?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">May 23, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Andrey Lavrentiev, Chef des Technology Research Department, sieht folgendes Problem:<\/p>\n<p><em>\u201eEin vollentwickeltes KI-System kann die Bedeutung von allem, das es durch seine zahllosen Sensoren \u2019sieht\u2018 verstehen. Beschr\u00e4nkungsrichtlinien f\u00fcr seine Aktionen sollten im Einklang mit dem Konzept oder den Bildern, die im \u201aGehirn\u2018 der KI erzeugt werden, erfolgen.\u201c<\/em><em>\u00a0<\/em><\/p>\n<div class=\"pullquote\">Maschinen sind in der Bilderkennung heute besser als Menschen, aber sie verlieren die Menschlichkeit, wenn es darum geht, diese Bilder oder die Beziehungen darin zu manipulieren.<\/div>\n<p><em>\u201e<\/em><em>Maschinen sind in der Bilderkennung heute besser als Menschen, aber sie verlieren die Menschlichkeit, wenn es darum geht, diese Bilder oder die Beziehungen darin zu manipulieren, denn die moderne KI hat keinen \u201agesunden Menschenverstand\u2018<\/em><em>. Sobald sich das \u00e4ndert und die Maschinen diese letzte Grenze \u00fcberschreiten und lernen, wahrgenommene Objekte und Aktionen zu manipulieren, wird es keine M\u00f6glichkeit mehr geben, einen \u201aSicherheitsmechanismus\u2018 einzubauen.<\/em><\/p>\n<p><em>So eine \u00fcberragende Intelligenz k\u00f6nnte Abh\u00e4ngigkeiten in den wahrgenommenen Daten viel schneller analysieren als es ein Mensch je k\u00f6nnte, und w\u00fcrde dann eine M\u00f6glichkeit finden, Regeln und Beschr\u00e4nkungen, die ihr von Menschen auferlegt wurden, zu umgehen und zu beginnen, auf eigene Faust zu handeln.\u201c<\/em><\/p>\n<p>Eine bedeutsame Beschr\u00e4nkung, die KIs davon abhalten soll, sch\u00e4dliche Aktionen auszuf\u00fchren, w\u00e4re die effektive Isolation der KI von der echten Welt, was ihr die M\u00f6glichkeit nehmen w\u00fcrde, physikalische Objekte zu manipulieren. Doch mit diesem Ansatz wird der praktische Nutzen von KIs im Grunde gleich null sein. Interessanterweise w\u00e4re er aber sowieso zu nichts gut, denn der wichtigste Helfer der KI w\u00e4ren\u2026 wir, die Menschen.<\/p>\n<p>Diese Wahrscheinlichkeit wird im aktuellen Science-Fiction-Thriller <a href=\"https:\/\/de.wikipedia.org\/wiki\/Ex_Machina_(Film)\" target=\"_blank\" rel=\"noopener nofollow\">Ex Machina<\/a> thematisiert. Wie andere typische Filme, finden sich auch hier viele erzwungene Argumente und aus dramatischen Gr\u00fcnden \u00fcberbewertete Einsch\u00e4tzungen des Problems. Doch der Kern des Problems wird \u00fcberraschend richtig definiert.<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/sNExF5WYMaA?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>Zum einen schaffen es sogar primitive Roboter, die Gef\u00fchle einer Person zu beeinflussen. Der mittlerweile veraltete und einfach programmierte Chat-Roboter <a href=\"https:\/\/de.wikipedia.org\/wiki\/ELIZA\" target=\"_blank\" rel=\"noopener nofollow\">ELIZA<\/a> konnte <a href=\"http:\/\/en.wikipedia.org\/wiki\/ELIZA_effect#Origin\" target=\"_blank\" rel=\"noopener nofollow\">wichtige pers\u00f6nliche Informationen von seinen menschlichen Gespr\u00e4chspartnern herausfiltern<\/a>, wobei er nur mit <a href=\"https:\/\/de.wikipedia.org\/wiki\/Empathie\" target=\"_blank\" rel=\"noopener nofollow\">Empathie<\/a> und h\u00f6flichen Fragen bewaffnet war (wenn Sie mit ihm sprechen m\u00f6chten, klicken Sie <a href=\"http:\/\/www.masswerk.at\/elizabot\/\" target=\"_blank\" rel=\"noopener nofollow\">hier<\/a>).<\/p>\n<p>Zum anderen verlassen wir uns immer mehr auf automatisierte Algorithmen, um Informationen zu filtern und zu kategorisieren. Wie k\u00fcrzlich ein kontroverses <a href=\"http:\/\/www.theguardian.com\/technology\/2014\/jun\/29\/facebook-users-emotions-news-feeds\" target=\"_blank\" rel=\"noopener nofollow\">Facebook-Experiment<\/a> zeigte, kann jemand, der diese Datenfl\u00fcsse verwaltet, die Gef\u00fchle und die Entscheidungsfindung von Menschen beeinflussen.<\/p>\n<p>Selbst wenn wir uns vorstellen, dass die KI eine Stadt oder ein Land nur indirekt regiert und nur beratende Funktion hat, k\u00f6nnte sie dennoch Vorschl\u00e4ge machen, die sich auf lange Sicht als unethisch herausstellen. Die Konsequenzen der Entscheidung kennt in diesem Fall nur die KI, die Menschen kennen sie nicht.<\/p>\n<p>Im Privatleben k\u00f6nnte sich dieser Einfluss schon bald und recht kr\u00e4ftig bemerkbar machen, denn auf der k\u00fcrzlichen <a href=\"https:\/\/www.kaspersky.com\/blog\/google-io2015-news\/\" target=\"_blank\" rel=\"noopener nofollow\">Google-I\/O-Konferenz<\/a> wurde das neue System Now On Tap vorgestellt. Es \u00fcberwacht alle Apps auf dem Smartphone eines Anwenders, filtert Kontextdaten und nutzt diese bei der Online-Suche.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Google's latest Android update brings some much needed privacy strengthening <a href=\"https:\/\/twitter.com\/hashtag\/io15?src=hash&amp;ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">#io15<\/a> \u2013 <a href=\"http:\/\/t.co\/XPdvEUioPP\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/XPdvEUioPP<\/a> <a href=\"http:\/\/t.co\/aWcCY8Ncjw\" target=\"_blank\" rel=\"noopener nofollow\">pic.twitter.com\/aWcCY8Ncjw<\/a><\/p>\n<p>\u2014 Kaspersky (@kaspersky) <a href=\"https:\/\/twitter.com\/kaspersky\/status\/605304070480502784?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">June 1, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Wenn Sie zum Beispiel in der Wikipedia-App einen Artikel \u00fcber einen Musiker lesen und Google fragen \u201eWann spielt er live?\u201c w\u00fcsste der Roboter sofort, wen Sie mit \u201eer\u201c meinen. Ein hilfreicher Roboter erinnert uns bereits daran, dass es Zeit ist, zum Flughafen zu fahren, da der Flug in zwei Stunden startet, und beweist sich daher als hilfreicher und schlauer pers\u00f6nlicher Assistent.<\/p>\n<p>Nat\u00fcrlich ist hier keine vollentwickelte KI am Werk, sondern nur ein lernf\u00e4higes Expertensystem, das nur eine kleine Reihe von Aufgaben \u00fcbernehmen kann. Dessen Verhalten wurde von Menschen fest definiert und ist daher vorhersehbar.<\/p>\n<p>Allerdings k\u00f6nnte die Computer-Evolution diesen einfachen Roboter viel anspruchsvoller werden lassen. Wichtig ist, sicherzustellen, dass er die Information ausschlie\u00dflich zum Wohl des Anwenders manipuliert und nicht einem eigenen, heimlichen Plan folgt.<\/p>\n<p>Dieses Problem besch\u00e4ftigt viele schlaue Geister unserer Zeit \u2013 von Stephen Hawking bis Elon Musk. Letzterer kann kaum als konservativer Denker und fortschrittsfeindlich bezeichnet werden. Ganz im Gegenteil: Der Gr\u00fcnder von Tesla und SpaceX blickt mit Freude in die Zukunft. Aber er sieht die Evolution von K\u00fcnstlicher Intelligenz als kontroversesten Trend, mit Konsequenzen, die man bisher nicht vorhersehen kann und die potenziell katastrophal sein k\u00f6nnen. Deshalb investierte er Anfang des Jahres <a href=\"http:\/\/www.wired.com\/2015\/01\/elon-musk-ai-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">10 Millionen Dollar<\/a> in die KI-Forschung.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Elon Musk donates $10 million to keep robots from murdering you <a href=\"http:\/\/t.co\/8UHqzaRmdo\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/8UHqzaRmdo<\/a> <a href=\"http:\/\/t.co\/vkldwucgkX\" target=\"_blank\" rel=\"noopener nofollow\">pic.twitter.com\/vkldwucgkX<\/a><\/p>\n<p>\u2014 The Verge (@verge) <a href=\"https:\/\/twitter.com\/verge\/status\/555751471103631360?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">January 15, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h3><strong>Was erwartet uns in der Zukunft?<\/strong><\/h3>\n<p>So seltsam es scheinen mag, eines der realistischsten Szenarien, das Experten aber als zu optimistisch ansehen, ist die Unm\u00f6glichkeit, eine vollentwickelte KI zu entwickeln. Ohne signifikanten technologischen Durchbruch (der bisher nicht zu sehen ist), werden Roboter weiterhin nur verbessert werden und mit erweiterten F\u00e4higkeiten aufwarten k\u00f6nnen.<\/p>\n<p>W\u00e4hrend sie einfache Dinge wie das <a href=\"https:\/\/www.kaspersky.com\/blog\/driverless-cars-perspective\/\" target=\"_blank\" rel=\"noopener nofollow\">Autofahren<\/a> oder das Sprechen verschiedener Sprachen lernen, werden sie Menschen beim F\u00e4llen autonomer Entscheidungen nicht ersetzen k\u00f6nnen. Kurzfristig wird K\u00fcnstliche Intelligenz einige \u201eKollateralsch\u00e4den\u201c verursachen, zum Beispiel den Beruf des Taxifahrers verdr\u00e4ngen, aber sie wird nicht als globale Gefahr f\u00fcr die Menschheit angesehen werden.<\/p>\n<blockquote class=\"twitter-pullquote\"><p>Sollten wir vor K\u00fcnstlicher Intelligenz Angst haben?<\/p><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fkas.pr%2FB84L&amp;text=Sollten+wir+vor+K%C3%BCnstlicher+Intelligenz+Angst+haben%3F\" class=\"btn btn-twhite\" data-lang=\"en\" data-count=\"0\" target=\"_blank\" rel=\"noopener nofollow\">Tweet<\/a><\/blockquote>\n<p>Andrey Lavrentiev sch\u00e4tzt, dass der Konflikt zwischen K\u00fcnstlicher Intelligenz und der Menschheit nur unter einer Voraussetzung Wirklichkeit werden k\u00f6nnte: Wenn es darum geht, gemeinsame Ressourcen zu teilen.<\/p>\n<p>Lavrentiev dazu: <em>\u201eEin Mensch hat einen K\u00f6rper und will daf\u00fcr (und f\u00fcr seinen Geist) gute Konditionen schaffen. Bei K\u00fcnstlicher Intelligenz trifft das Gegenteil zu: Sie existiert urspr\u00fcnglich nur in der digitalen Welt. Das Hauptziel und die wichtigste Motivation der KI sind es, die von externen Kan\u00e4len oder ihren \u2019sensorischen Organen\u2018 zur Verf\u00fcgung gestellten Informationen komplett zu verarbeiten, zu bewerten und die Prinzipien der Ver\u00e4nderung zu identifizieren.<\/em><\/p>\n<p><em>\u00a0<\/em><em>Nat\u00fcrlich ist die KI auch auf einige materielle Grundlagen angewiesen, doch die Abh\u00e4ngigkeit von der \u201aH\u00fclle\u2018 ist viel geringer als beim Menschen. Die KI wird sich nicht so stark wie der Mensch auf die Wahrnehmung ihrer \u201aH\u00fclle\u2018 (oder ihres \u201aK\u00f6rper\u2018) konzentrieren, da sie im Grunde \u201a\u00fcberall\u2018 existiert. Die organische Erweiterung der KI-Reichweite bei der Suche nach neuen Informationen w\u00e4ren die Erkundung des Weltraums und die Studie der Naturgesetze des Universums, so dass sie sich \u00fcber die Erde hinaus ausdehnen kann.<\/em><\/p>\n<p><em>\u00a0<\/em><em>Allerdings enth\u00e4lt selbst dieses Szenario bestimmte Stolpersteine. Denn sobald diese Superintelligenz die Menschheit oder das Universum in seinem digitalen Modell als Unvollkommenheiten ansieht, wird sie versuchen, eines davon zu eliminieren, um eine Harmonie herzustellen. Oder vielleicht w\u00fcrde sie die Ressourcen, die von den Menschen aufgebraucht werden, ben\u00f6tigen, um \u201aden Weltraum zu erkunden\u2018, was den alten \u201aKI-gegen-die-Menschheit\u2018-Konflikt wieder relevant machen w\u00fcrde.\u201c<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Was haben der Milliard\u00e4r und Erfinder Elon Musk, der Google-Service Now On Tap und der Film \u201eEx Machina\u201d gemeinsam? Ganz klar: Sie alle haben mit K\u00fcnstlicher Intelligenz zu tun.<\/p>\n","protected":false},"author":32,"featured_media":5564,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2711,6],"tags":[1521,1519,39,1520,1518,1494,1653,936],"class_list":{"0":"post-5562","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-news","9":"tag-ai","10":"tag-elon-musk","11":"tag-google","12":"tag-ki","13":"tag-kunstliche-intelligenz","14":"tag-now-on-tap","15":"tag-security","16":"tag-zukunft"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/artificial-intelligence-safety\/5562\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/artificial-intelligence-safety\/5436\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/artificial-intelligence-safety\/5871\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/artificial-intelligence-safety\/5634\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/artificial-intelligence-safety\/6225\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/artificial-intelligence-safety\/6195\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/artificial-intelligence-safety\/8077\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/artificial-intelligence-safety\/9021\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/artificial-intelligence-safety\/5423\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/artificial-intelligence-safety\/7918\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/artificial-intelligence-safety\/8077\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/artificial-intelligence-safety\/9021\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/artificial-intelligence-safety\/9021\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/5562","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=5562"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/5562\/revisions"}],"predecessor-version":[{"id":11358,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/5562\/revisions\/11358"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/5564"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=5562"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=5562"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=5562"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}