{"id":17511,"date":"2018-08-24T15:22:16","date_gmt":"2018-08-24T13:22:16","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=17511"},"modified":"2022-06-10T19:07:07","modified_gmt":"2022-06-10T17:07:07","slug":"machine-learning-nine-challenges","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/machine-learning-nine-challenges\/17511\/","title":{"rendered":"Maschinelles Lernen: 9 Herausforderungen"},"content":{"rendered":"<p>In der Zukunft erwartet uns mit Sicherheit Fantastisches, aber in der Gegenwart wirft vor allem das Thema k\u00fcnstliche Intelligenz (KI) einige Fragen auf, die meist mit Moral und Ethik zusammenh\u00e4ngen. Wie konnten uns maschinelle Lernalgorithmen bereits \u00fcberraschen? Ist es m\u00f6glich, eine Maschine auszutricksen, und wenn ja, wie schwer ist es? Und, wird es im Endeffekt auf Skynet und die Rebellion der Maschinen hinauslaufen? In diesem Artikel versuchen wir, diese Fragen zu beantworten.<\/p>\n<h2>Starke und schwache KI<\/h2>\n<p>Zun\u00e4chst m\u00fcssen wir zwischen zwei Konzepten unterscheiden: starke und schwache KI. Unter starker KI versteht man eine hypothetische Maschine, die denkf\u00e4hig ist und sich ihrer eigenen Existenz bewusst ist. Sie kann nicht nur spezifische Aufgaben l\u00f6sen, sondern auch neue Dinge erlernen.<\/p>\n<p>Schwache KI existiert bereits und ist zur L\u00f6sung spezifischer Probleme (Bilderkennung, Autofahren, usw.) in Anwendungen implementiert und wird auch als \u201emaschinelles Lernen\u201c bezeichnet.<\/p>\n<p>Derzeit k\u00f6nnen wir noch nicht mit 100%iger Sicherheit sagen, ob starke KI je erfunden werden kann. <a href=\"https:\/\/www.technologyreview.com\/s\/607970\/experts-predict-when-artificial-intelligence-will-exceed-human-performance\/\" target=\"_blank\" rel=\"noopener nofollow\">Expertenbefragungen<\/a> zufolge m\u00fcssen wir darauf wahrscheinlich noch rund 45 Jahre warten. Ihrer Meinung nach sollte Fusionsenergie in ungef\u00e4hr 40 Jahren kommerzialisiert werden k\u00f6nnen \u2013 kurioserweise haben Experten dasselbe bereits vor 50 Jahren gesagt.<\/p>\n<h2>Was k\u00f6nnte schief gehen?<\/h2>\n<p>Es ist noch immer unklar, ob und wann starke KI entwickelt werden wird; Fakt ist, dass schwache KI l\u00e4ngst existiert und in vielen Bereichen bereits vermehrt eingesetzt wird \u2013 Tendenz steigend. Maschinelles Lernen erm\u00f6glicht uns, praktische Aufgaben ohne offensichtliche Programmierung zu bew\u00e4ltigen und lernt aus Fallbeispielen. Weitere Informationen finden Sie in unserem Artikel \u201e<a href=\"https:\/\/www.kaspersky.de\/blog\/machine-learning-explained\/9245\/\" target=\"_blank\" rel=\"noopener\">Kurz und knapp: Wie maschinelles Lernen funktioniert<\/a>\u201e.<\/p>\n<p>Maschinen lernen konkrete Probleme zu l\u00f6sen, sodass das resultierende mathematische Modell \u2013 was wir einen \u201elernenden\u201c Algorithmus nennen \u2013 nicht dazu in der Lage ist ein pl\u00f6tzliches Verlangen zu entwickeln, die Menschheit zu unterdr\u00fccken (oder zu retten). Mit anderen Worten: wir m\u00fcssen keine Angst vor einem Skynet-Szenario aufgrund schwacher KI haben. Dennoch gibt es einige Dinge, die schiefgehen k\u00f6nnten.<\/p>\n<h3>1. B\u00f6se Absichten<\/h3>\n<p>Wenn die Menschheit einer Drohnen-Armee mithilfe maschineller Lernalgorithmen beibringt, Menschen zu t\u00f6ten, k\u00f6nnte das Resultat dann ethisch sein?<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/TlO2gcs1YvM?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/92\/2018\/08\/21114743\/machine-learning-challenges-face-recognition-china.png\">\u00a0<\/a><\/p>\n<p>Im letzten Jahr sorgte dieses Thema f\u00fcr einen Skandal. Denn derzeit entwickelt\u00a0<a href=\"https:\/\/gizmodo.com\/google-employees-resign-in-protest-against-pentagon-con-1825729300\" target=\"_blank\" rel=\"noopener nofollow\">Google Software<\/a> f\u00fcr ein milit\u00e4risches Projekt namens Project Maven, bei dem auch Drohnen involviert sind. In ferner (oder naher) Zukunft k\u00f6nnte diese Software auch dabei helfen, v\u00f6llig autonome Waffensysteme zu entwickeln.<\/p>\n<p>Das Ergebnis? 12 Google-Mitarbeiter traten aus Protest zur\u00fcck und 4000 weitere unterschrieben eine Petition, in der das Unternehmen dazu aufgefordert wurde, den Vertrag mit dem Milit\u00e4r aufzul\u00f6sen. Mehr als 1000 bekannte Wissenschaftler in den Bereichen KI, Ethik und IT schrieben einen <a href=\"https:\/\/www.icrac.net\/open-letter-in-support-of-google-employees-and-tech-workers\/\" target=\"_blank\" rel=\"noopener nofollow\">offenen Brief<\/a> an Google, in dem sie das Unternehmen darum baten, das Projekt aufzugeben und ein internationales Abkommen zu unterst\u00fctzen, das autonome Waffen verbietet.<\/p>\n<h3>2. Entwickler-Tendenzen<\/h3>\n<p>Selbst wenn Entwickler maschineller Lernalgorithmen keine Absichten haben Schaden anzurichten, wollen viele von ihnen lediglich schnell und viel Geld verdienen \u2013 das hei\u00dft, dass ihre Algorithmen zum Nutzen der Entwickler erstellt werden, nicht unbedingt zum Wohle der Gesellschaft. So k\u00f6nnten einige medizinische Algorithmen beispielsweise daf\u00fcr sorgen, dass teure Behandlungen denjenigen mit den besten Ergebnissen f\u00fcr den Patienten vorgezogen werden.<\/p>\n<p>Manchmal hat die Gesellschaft selbst kein Interesse daran, dass sich ein Algorithmus in ein moralisches Vorbild verwandelt. Betrachtet man beispielsweise die Verbindung zwischen der zugelassenen Verkehrsgeschwindigkeit und der Todesrate bei Autounf\u00e4llen, k\u00f6nnte man autonome Fahrzeuge zuk\u00fcnftig so programmieren, dass sie nicht schneller als 15 Meilen pro Stunde fahren, was die Zahl der Verkehrstoten quasi auf Null reduzieren w\u00fcrde, aber wiederum andere Vorteile der Verwendung eines Autos negieren w\u00fcrde, an denen viele Verbraucher schlichtweg nicht interessiert sind.<\/p>\n<h3>3. System-Parameter umfassen nicht immer ethische Prinzipien<\/h3>\n<p>Im Grunde genommen wissen Computer standardm\u00e4\u00dfig nichts \u00fcber Ethik. Ein Algorithmus kann ein Staatsbudget mit dem Ziel \u201eMaximierung des BIP\/der Arbeitsproduktivit\u00e4t oder Lebenserwartung\u201c erstellen, aber ohne ethische Einschr\u00e4nkungen, die im Modell enthalten sind, w\u00fcrde der Algorithmus wahrscheinlich die Budgets f\u00fcr Schulen, Krankenh\u00e4user und Umweltfragen schlichtweg aus der Welt schaffen, weil sie das BIP nicht aktiv steigern.<\/p>\n<p>Je nachdem, welches Ziel dem Algorithmus gesetzt wird, k\u00f6nnte er so beispielsweise auch entscheiden, alle arbeitsunf\u00e4higen Personen \u201ezu beseitigen\u201c, um die Produktivit\u00e4t zu erh\u00f6hen.<\/p>\n<p>Aus diesem Grund m\u00fcssen ethische Fragen von Anfang an mit einbezogen werden.<\/p>\n<h3>4. Ethische Relativit\u00e4t<\/h3>\n<p>Die Ethik ver\u00e4ndert sich im Laufe der Zeit stetig. So k\u00f6nnen sich beispielsweise die Meinungen zu Themen wie LGBT-Rechten und interkultureller oder interkasteartiger Ehe innerhalb einer Generation signifikant ver\u00e4ndern.<\/p>\n<p>Dar\u00fcber hinaus kann Ethik zwischen verschiedenen Gruppen innerhalb des gleichen Landes oder in verschiedenen L\u00e4ndern variieren. Zum Beispiel ist in China die Verwendung der Gesichtserkennung zur <a href=\"https:\/\/www.businessinsider.com\/how-china-is-watching-its-citizens-in-a-modern-surveillance-state-2018-4\" target=\"_blank\" rel=\"noopener nofollow\">Massen\u00fcberwachung<\/a> bereits zur Norm geworden. Andere L\u00e4nder haben eventuell eine vollkommen andere Meinung zu diesem Thema, die oftmals situationsabh\u00e4ngig ist.<\/p>\n<p><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/92\/2018\/08\/21114743\/machine-learning-challenges-face-recognition-china.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-23554\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/92\/2018\/08\/21114743\/machine-learning-challenges-face-recognition-china-1024x590.png\" alt=\"\" width=\"1024\" height=\"590\"><\/a><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/92\/2018\/08\/21114844\/machine-learning-challenges-false-correlation-EN.png\">\u00a0<\/a><\/p>\n<p>Auch das politische Klima spielt eine entscheidene Rolle. So hat zum Beispiel der Kampf gegen den Terrorismus einige ethische Normen und Ideale in vielen L\u00e4ndern erheblich \u2013 und unglaublich schnell \u2013 ver\u00e4ndert.<\/p>\n<h3>5. Maschinelles Lernen ver\u00e4ndert die Menschheit<\/h3>\n<p>Maschinelle Lernsysteme empfehlen Ihnen neue Filme basierend auf Ihren Bewertungen anderer Filme und nach dem Vergleich Ihrer Pr\u00e4ferenzen mit denen anderer Nutzer. Manche Systeme sind darin bereits ziemlich gut.<\/p>\n<p>Ein solches System \u00e4ndert und schr\u00e4nkt Ihre Pr\u00e4ferenzen mit der Zeit ein; denn ohne es w\u00e4ren Sie mehr oder weniger gezwungen, ab und an schlechte Filme sowie Filme unerw\u00fcnschter Genres zu ertragen. Mithilfe KI wird Ihnen quasi eine Reihe ausgew\u00e4hlter Inhalte, die ausschlie\u00dflich auf Ihre Vorlieben zugeschnitten sind, schmackhaft pr\u00e4sentiert und letztendlich konsumieren Sie nur noch das, was Ihnen angeboten wird.<\/p>\n<p>Interessant ist auch, das wir oft nicht einmal merken, dass wir von Algorithmen manipuliert werden. Das Film-Beispiel ist nicht allzu be\u00e4ngstigend, aber stellen Sie sich das Ganze nun im Bereich der Nachrichten und Propaganda vor.<\/p>\n<h3>6. Falsche Korrelationen<\/h3>\n<p>Eine falsche Korrelation tritt dann auf, wenn Dinge, die in keinerlei Beziehung zueinanderstehen, ein sehr \u00e4hnliches Verhalten zeigen, was dann die Illusion erzeugen kann, dass diese beiden Dinge auf irgendeine Art und Weise miteinander verbunden sind. Wussten Sie, dass der Verbrauch von Margarine in den USA stark von der Scheidungsrate in Maine abh\u00e4ngig ist?<\/p>\n<p><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/92\/2018\/08\/21114844\/machine-learning-challenges-false-correlation-EN.png\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-23558\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/92\/2018\/08\/21114844\/machine-learning-challenges-false-correlation-EN-1024x485.png\" alt=\"\" width=\"1024\" height=\"485\"><\/a><\/p>\n<p>Nat\u00fcrlich werden Menschen aus Fleisch und Blut, die sich auf ihre pers\u00f6nliche Erfahrung und menschliche Intelligenz verlassen, sofort erkennen, dass eine direkte Verbindung zwischen diesen beiden Dingen \u00e4u\u00dferst unwahrscheinlich ist. Ein mathematisches Modell besitzt ein solches Wissen allerdings nicht \u2013 es lernt ganz einfach und verallgemeinert Daten.<\/p>\n<p>Ein gut bekanntes Beispiel ist eine Software, die Patienten nach ihrer Dringlichkeit f\u00fcr den Bezug \u00e4rztlicher Hilfe eingestuft hatte und zu dem Schluss kam, dass Asthmapatienten mit einer Lungenentz\u00fcndung nicht so hilfebed\u00fcrftig sind wie Lungenentz\u00fcndungspatienten ohne Asthma. Mithilfe der Daten, die die Software untersuchte, stufte sie das Sterberisiko der Asthmapatienten als deutlich geringer ein und gab ihnen daher keine Priorit\u00e4t. Tats\u00e4chlich waren ihre Sterblichkeitsraten so niedrig, weil sie aufgrund ihres Gesundheitszustands, immer sofortige Hilfe in medizinischen Einrichtungen erhielten.<\/p>\n<h3>7. Feedback Loops<\/h3>\n<p>Feedback Loops sind noch schlimmer als falsche Korrelationen. Ein Feedback Loop beschreibt eine Situation, in der die Entscheidungen eines Algorithmus die Realit\u00e4t beeinflussen, was den Algorithmus wiederum davon \u00fcberzeugt, dass seine Schlussfolgerung korrekt ist.<\/p>\n<p>Zum Beispiel schlug ein Programm zur Verbrechensbek\u00e4mpfung in Kalifornien vor, dass die Polizei aufgrund der Kriminalit\u00e4tsrate \u2013 die Zahl der aufgezeichneten Verbrechen \u2013 mehr Beamte in afroamerikanische Viertel schicken sollte. Doch die hohe Anzahl der Polizeiautos in einem der Viertel f\u00fchrte dazu, dass die Anwohner Straftaten h\u00e4ufiger meldeten, was im Umkehrschluss zu einer h\u00f6heren Kriminalit\u00e4tsrate f\u00fchrte. Das Ergebnis? Noch mehr Beamte wurden in die Gegend geschickt.<\/p>\n<h3>8. \u201eKontaminierte\u201c oder \u201evergiftete \u201c Referenzdaten<\/h3>\n<p>Die Ergebnisse algorithmischer Lernprozesse h\u00e4ngen weitgehend von Referenzdaten ab, die die Grundlage der Prozesse bilden. Die Daten k\u00f6nnen jedoch durch Zufall oder durch b\u00f6swillige Absicht (der letztere Fall wird f\u00fcr gew\u00f6hnlich als \u201eVergiftung\u201c bezeichnet) nicht angemessen oder verf\u00e4lscht sein.<\/p>\n<p>Hier ein Beispiel f\u00fcr unbeabsichtigte Probleme mit Referenzdaten: Wenn die Daten, die als Trainingbeispiel f\u00fcr einen Einstellungsalgorithmus verwendet werden, von einem Unternehmen mit rassistischen Einstellungspraktiken bezogen werden, wird auch der Algorithmus rassistische Pr\u00e4ferenzen haben.<\/p>\n<p>Microsoft hat einem Chatbot vor geraumer Zeit beigebracht, mit den Nutzern auf Twitter zu kommunizieren. Das Projekt musste allerdings <a href=\"https:\/\/www.theverge.com\/2016\/3\/24\/11297050\/tay-microsoft-chatbot-racist\" target=\"_blank\" rel=\"noopener nofollow\">in weniger als 24 Stunden abgebrochen werden<\/a>, da einige Nutzer dem Bot schnell beigebracht hatten das Buch \u201eMein Kampf\u201c zu zitieren.<\/p>\n<p>https:\/\/twitter.com\/geraldmellor\/status\/712880710328139776<\/p>\n<p>Es folgt ein weiteres Beispiel f\u00fcr \u201evergiftete\u201c Daten maschineller Lernalgorithmen: Ein mathematisches Modell in einem Computervirus-Analyselabor verarbeitet durchschnittlich 1 Million Dateien pro Tag, sowohl gutartige als auch b\u00f6sartige. Die Bedrohungslandschaft \u00e4ndert sich st\u00e4ndig, sodass Modell\u00e4nderungen f\u00fcr installierte Produkte auf der Kundenseite in Form von Updates der Antivirus-Datenbanken ausgeliefert werden.<\/p>\n<p>Ein Hacker kann allerdings weiterhin b\u00f6sartige Dateien erzeugen, die gutartigen Dateien sehr \u00e4hnlich sind, und diese an das Labor senden. Auf diese Weise l\u00f6st sich die Grenze zwischen bedenkenlosen und sch\u00e4dlichen Dateien nach und nach auf, wodurch das Modell degradiert wird und m\u00f6glicherweise ein <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/false-positive\/?utm_source=kdaily&amp;utm_medium=blog&amp;utm_campaign=termin-explanation\" target=\"_blank\" rel=\"noopener\">False Positiv<\/a> ausgel\u00f6st wird.<\/p>\n<p>Aus diesem Grund verf\u00fcgt Kaspersky Lab \u00fcber ein <a href=\"https:\/\/www.kaspersky.com\/blog\/multilayered-approach\/6601\/\" target=\"_blank\" rel=\"noopener nofollow\">mehrschichtiges Sicherheitsmodell<\/a> und <a href=\"https:\/\/securelist.com\/five-myths-about-machine-learning-in-cybersecurity\/76351\/\" target=\"_blank\" rel=\"noopener\">verl\u00e4sst sich nicht ausschlie\u00dflich auf maschinelle Lernalgorithmen<\/a>. Unsere Antiviren-Experten haben immer ein Auge darauf, was die Maschine macht.<\/p>\n<h3>9. Algorithmen austricksen<\/h3>\n<p>Selbst ein gut funktionierendes mathematisches Modell, das auf angemessenen Daten aufbaut, kann ausgetrickst werden, wenn man wei\u00df, wie es geht. Eine Forschergruppe fand beispielsweise heraus, wie man einen Gesichtserkennungsalgorithmus mit einer speziellen Brille austricksen k\u00f6nnte, die minimale Verzerrungen in das Bild einbringen und somit das Endergebnis vollst\u00e4ndig ver\u00e4ndern w\u00fcrde.<\/p>\n<div id=\"attachment_28867\" style=\"width: 1074px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2018\/08\/10185737\/machine-learning-challenges-fail-1.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28867\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2018\/08\/10185737\/machine-learning-challenges-fail-1.png\" alt='Mit einer speziell gef\u00e4rbten Brillenfassung haben Forscher &lt;a href=\"https:\/\/www.theguardian.com\/technology\/2016\/nov\/03\/how-funky-tortoiseshell-glasses-can-beat-facial-recognition\"&gt;einen Gesichtserkennungsalgorithmus ausgetrickst&lt;\/a&gt; und ihn im Glauben gelassen, jemand anderes zu sein' width=\"1064\" height=\"638\" class=\"size-full wp-image-28867\"><\/a><p id=\"caption-attachment-28867\" class=\"wp-caption-text\">Mit einer speziell gef\u00e4rbten Brillenfassung haben Forscher <a href=\"https:\/\/www.theguardian.com\/technology\/2016\/nov\/03\/how-funky-tortoiseshell-glasses-can-beat-facial-recognition\" target=\"_blank\" rel=\"noopener nofollow\">einen Gesichtserkennungsalgorithmus ausgetrickst<\/a> und ihn im Glauben gelassen, jemand anderes zu sein<\/p><\/div>\n<p>Selbst in den einfachsten Situationen, kann eine Maschine kinderleicht mit Methoden ausgetrickst werden, die einem Laien ganz einfach nicht bekannt sind.<\/p>\n<div id=\"attachment_28868\" style=\"width: 859px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2018\/08\/10190124\/machine-learning-challenges-fail-2.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28868\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2018\/08\/10190124\/machine-learning-challenges-fail-2.png\" alt=\"Die ersten drei Schilder werden als Geschwindigkeitsbegrenzung (45km\/h) erkannt, das letzte Schild als STOP-Schild\" width=\"849\" height=\"309\" class=\"size-full wp-image-28868\"><\/a><p id=\"caption-attachment-28868\" class=\"wp-caption-text\">Die ersten drei Schilder werden als Geschwindigkeitsbegrenzung (45km\/h) <a href=\"https:\/\/arxiv.org\/pdf\/1412.6572.pdf\" target=\"_blank\" rel=\"noopener nofollow\">erkannt<\/a>, das letzte Schild als STOP-Schild<\/p><\/div>\n<p>Abgesehen davon m\u00fcssen \u00c4nderungen nicht signifikant sein, um ein mathematisches Modell, das auf maschinellen Lernalgorithmen basiert, aus dem Gleichgewicht zu bringen \u2013 <a href=\"https:\/\/www.kaspersky.de\/blog\/ai-fails\/14540\/\" target=\"_blank\" rel=\"noopener\">minimale Ver\u00e4nderungen, die f\u00fcr das menschliche Auge nicht wahrnehmbar sind<\/a>, reichen bereits aus.<\/p>\n<div id=\"attachment_28869\" style=\"width: 1610px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2018\/08\/10190451\/machine-learning-challenges-fail-3.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28869\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2018\/08\/10190451\/machine-learning-challenges-fail-3.png\" alt=\"Durch minimale Ver\u00e4nderungen ist der Panda links auf einmal ein Gibbon\" width=\"1600\" height=\"520\" class=\"size-full wp-image-28869\"><\/a><p id=\"caption-attachment-28869\" class=\"wp-caption-text\">Durch minimale Ver\u00e4nderungen ist der Panda links <a href=\"https:\/\/arxiv.org\/pdf\/1312.6199.pdf\" target=\"_blank\" rel=\"noopener nofollow\">auf einmal ein Gibbon<\/a><\/p><\/div>\n<p>Solange wir Menschen schlauer sind als die meisten Algorithmen, k\u00f6nnen wir sie auch weiterhin austricksen. Denken Sie beispielsweise an zuk\u00fcnftige maschinelle Lernalgorithmen, mit deren Hilfe Gep\u00e4ckr\u00f6ntgenaufnahmen am Flughafen analysiert werden und nach Waffen gesucht wird. Terroristen mit ein wenig K\u00f6pfchen werden in der Lage sein, ein Objekt mit einer bestimmten Form neben eine Waffe zu legen und die Waffe so unsichtbar zu machen.<\/p>\n<h2>Wer sind die Schuldigen und was kann getan werden?<\/h2>\n<p>Im Jahr 2016 ver\u00f6ffentlichte die Big Data Working Group der \u201eObama Administration\u201c einen <a href=\"https:\/\/obamawhitehouse.archives.gov\/sites\/default\/files\/microsites\/ostp\/2016_0504_data_discrimination.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Bericht<\/a>, der vor \u201edem Potenzial der Diskriminierungskodierung bei automatisierten Entscheidungen\u201c warnte. Dar\u00fcber hinaus enthielt der Bericht einen Appell an die Entwicklung von Algorithmen, die nach dem Grundsatz der Chancengleichheit funktionieren sollten.<\/p>\n<p>Leichter gesagt als getan.<\/p>\n<p>Zum einen sind mathematische maschinelle Lernmodelle schwierig zu testen und auszubessern: zwar werden regul\u00e4re Programme Schritt f\u00fcr Schritt analysiert und getestet, beim maschinellen Lernen hingegen h\u00e4ngt allerdings alles von der Gr\u00f6\u00dfe des Lernbeispiels ab, das nun mal nicht unendlich sein kann.<\/p>\n<p>So erkannte und kennzeichnete die App Google Photo farbige Menschen beispielsweise als Gorillas. Das Ganze endete, wie Sie sich vermutlich vorstellen k\u00f6nnen, in einem Skandal und Google versprach, den Algorithmus auszubessern. Nach drei Jahren ist es Google noch immer nicht gelungen <a href=\"https:\/\/www.theverge.com\/2018\/1\/12\/16882408\/google-racist-gorillas-photo-recognition-algorithm-ai\" target=\"_blank\" rel=\"noopener nofollow\">etwas Besseres zu finden<\/a>, als das Markieren von Objekten als Gorillas, Schimpansen oder Affen zu untersagen.<\/p>\n<p>Zum anderen ist es schwer, die Entscheidungen maschineller Lernalgorithmen zu verstehen und zu erkl\u00e4ren. Ein neuronales Netzwerk arrangiert intern Koeffizienten, um zu einer korrekten Antwort zu gelangen \u2013 aber wie? Und was kann getan werden, um die Antwort zu \u00e4ndern?<\/p>\n<p>Untersuchungen aus dem Jahr 2015 haben gezeigt, dass Frauen Google AdSense-Anzeigen f\u00fcr <a href=\"https:\/\/www.theguardian.com\/technology\/2015\/jul\/08\/women-less-likely-ads-high-paid-jobs-google-study\" target=\"_blank\" rel=\"noopener nofollow\">gut bezahlte Jobs<\/a> viel seltener angezeigt bekommen als M\u00e4nner. Auch der Same-Day-Lieferservice von Amazon <a href=\"https:\/\/www.geekwire.com\/2016\/amazon-same-day-delivery-black-neighborhoods\/\" target=\"_blank\" rel=\"noopener nofollow\">ist in afroamerikanischen Stadtvierteln oft nicht verf\u00fcgbar<\/a>. In beiden F\u00e4llen waren Vertreter der Unternehmen nicht in der Lage, die von den Algorithmen getroffenen Entscheidungen plausibel zu erkl\u00e4ren.<\/p>\n<p>Im Endeffekt gibt es keinen Schuldigen, den wir an den Pranger stellen k\u00f6nnen, also m\u00fcssen wir neue Gesetze verabschieden und neue ethische Regeln f\u00fcr die Roboterechnik ins Leben rufen. Im Mai 2018 hat Deutschland einen ersten Schritt in diese Richtung getan und <a href=\"https:\/\/bmdv.bund.de\/SharedDocs\/DE\/Publikationen\/DG\/massnahmenplan-zum-bericht-der-ethikkommission-avf.html\" target=\"_blank\" rel=\"noopener nofollow\">ethische Regeln f\u00fcr selbstfahrende Autos<\/a> erlassen:<\/p>\n<ul>\n<li>Sachschaden geht vor Personenschaden: In Gefahrensituationen hat der Schutz menschlichen Lebens immer h\u00f6chste Priorit\u00e4t.<\/li>\n<li>Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach pers\u00f6nlichen Merkmalen (Alter, Geschlecht, k\u00f6rperliche oder geistige Konstitution) unzul\u00e4ssig.<\/li>\n<\/ul>\n<p>F\u00fcr uns ist aber vor allem folgender Grundsatz besonders wichtig:<\/p>\n<ul>\n<li>Das automatisierte und vernetzte Fahren ist ethisch geboten, wenn die Systeme weniger Unf\u00e4lle verursachen als menschliche Fahrer (positive Risikobilanz).\u200e<\/li>\n<\/ul>\n<p>Selbstverst\u00e4ndlich werden wir uns zuk\u00fcnftig mehr und mehr auf maschinelle Lernalgorithmen verlassen; ganz einfach weil sie viele Aufgaben besser bew\u00e4ltigen k\u00f6nnen als wir Menschen. Daher ist es wichtig, m\u00f6gliche Fehler und Probleme im Hinterkopf zu behalten und zu versuchen, diese bereits in der Entwicklungsphase zu antizipieren. Dar\u00fcber hinaus ist es wichtig, immer ein Auge auf die Leistung der Algorithmen zu werfen, falls im Fall der F\u00e4lle etwas schief gehen sollte.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"earth-2050\">\n","protected":false},"excerpt":{"rendered":"<p>Welche \u00dcberraschungen halten maschinelle Lernalgorithmen f\u00fcr uns bereit und wie schwer ist es, eine Maschine auszutricksen? Wir kl\u00e4ren Sie auf.<\/p>\n","protected":false},"author":669,"featured_media":17512,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[6,2287],"tags":[1521,3082,2657,2360,665,1544],"class_list":{"0":"post-17511","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-news","8":"category-technology","9":"tag-ai","10":"tag-ethik","11":"tag-humachine","12":"tag-maschinelles-lernen","13":"tag-probleme","14":"tag-technologien"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/machine-learning-nine-challenges\/17511\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/machine-learning-nine-challenges\/13976\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/machine-learning-nine-challenges\/11675\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/machine-learning-nine-challenges\/15974\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/machine-learning-nine-challenges\/13334\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/machine-learning-nine-challenges\/16771\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/machine-learning-nine-challenges\/16160\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/machine-learning-nine-challenges\/23553\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/machine-learning-nine-challenges\/11324\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/machine-learning-nine-challenges\/9867\/"},{"hreflang":"zh","url":"https:\/\/www.kaspersky.com.cn\/blog\/machine-learning-nine-challenges\/9912\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/machine-learning-nine-challenges\/21336\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/machine-learning-nine-challenges\/20846\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/machine-learning-nine-challenges\/20855\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/humachine\/","name":"HuMachine"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/17511","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/669"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=17511"}],"version-history":[{"count":9,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/17511\/revisions"}],"predecessor-version":[{"id":28870,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/17511\/revisions\/28870"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/17512"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=17511"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=17511"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=17511"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}