{"id":23382,"date":"2020-03-26T16:37:00","date_gmt":"2020-03-26T14:37:00","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=23382"},"modified":"2020-03-26T16:38:52","modified_gmt":"2020-03-26T14:38:52","slug":"rsa2020-deepfakes-mitigatio","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/rsa2020-deepfakes-mitigatio\/23382\/","title":{"rendered":"Wie man die Auswirkungen von Deepfakes reduzieren kann"},"content":{"rendered":"<p>Deepfakes sind lediglich eines der zahlreichen Negativeffekte der j\u00fcngsten Fortschritte auf dem Gebiet der k\u00fcnstlichen Intelligenz. Gef\u00e4lschte Medien, die durch maschinelle Lernalgorithmen erzeugt wurden, haben in den letzten Jahren viel Anklang gefunden. Alyssa Millers Vortrag, <a href=\"https:\/\/published-prd.lanyonevents.com\/published\/rsaus20\/sessionsFiles\/17299\/2020_USA20_SBX1-W5_01_Losing-Our-Reality-How-Deepfakes-Threaten-Businesses-and-Global-Markets.pdf\" target=\"_blank\" rel=\"noopener nofollow\">\u201eLosing our Reality\u201c<\/a> (dt. Der Verlust unserer Realit\u00e4t), auf der RSA-Konferenz 2020, bietet einige Fakten dazu, warum es an der Zeit ist, Deepfakes als Bedrohung zu betrachten und was Ihr Unternehmen tats\u00e4chlich tun kann, um Auswirkungen eines derartigen Angriffs zu mindern.<\/p>\n<h2>Wie Deepfakes erzeugt werden<\/h2>\n<p>Der gebr\u00e4uchlichste Ansatz f\u00fcr die Erstellung von Deepfakes ist die Verwendung eines Systems mit dem Namen GAN (Generative Adversial Networks). GANs bestehen aus zwei neuronalen Netzen, die miteinander konkurrieren. Zur Vorbereitung werden beide Netzwerke auf reale Bilder trainiert. Dann beginnt der Konkurrenzmechanismus: Ein Netzwerk generiert Bilder (daher der Name <em>Generator<\/em>), w\u00e4hrend das andere, konkurrierende Netzwerk versucht festzustellen, ob das Bild echt oder falsch ist (letzteres Netzwerk wird als <em>Diskriminator<\/em> bezeichnet).<\/p>\n<p>So entwickelt das generative Netzwerk einen Lernprozess aus dem Ergebnis. Gleichzeitig lernt der Diskriminator, wie er seine Leistung verbessern kann. Mit jedem Zyklus wird die Leistung beider Netzwerke zunehmend verbessert.<\/p>\n<p>Nehmen wir an, ein solches System hat eine Million solcher Trainingszyklen absolviert: Das GAN hat gelernt, wie man gef\u00e4lschte Bilder erzeugt, die ein ebenso fortgeschrittenes neuronales Netzwerk nicht von echten unterscheiden kann.<\/p>\n<p>Diese Methode ist in vielen Anwendungen tats\u00e4chlich n\u00fctzlich. Abh\u00e4ngig von den vorbereitenden Daten lernt das generative Netzwerk, bestimmte Arten von Bildern zu generieren.<\/p>\n<p>F\u00fcr Deepfakes wird der Algorithmus nat\u00fcrlich auf reale Fotos bestimmter Personen trainiert, was zu einem Netzwerk f\u00fchrt, das eine unendliche Anzahl \u00fcberzeugender (aber gef\u00e4lschter) Fotos einer Person erzeugen kann, die man in einem Video zusammenschneiden kann. \u00c4hnliche Methoden k\u00f6nnten gef\u00e4lschte Audiodateien erzeugen und ja, Betr\u00fcger verwenden bereits <a href=\"https:\/\/www.kaspersky.de\/blog\/machine-learning-fake-voice\" target=\"_blank\" rel=\"noopener\">Deepfake-Audios.<\/a><\/p>\n<h2>Wie \u00fcberzeugend Deepfakes geworden sind<\/h2>\n<p>Fr\u00fche Deepfake-Videos sahen l\u00e4cherlich aus, aber die Technologie hat sich zu diesem Zeitpunkt so weit entwickelt, dass solche Medien erschreckend \u00fcberzeugend wirken. Eines der bemerkenswertesten Beispiele f\u00fcr erschreckend \u00fcberzeugende Deepfakes aus dem Jahr 2018 war ein Fake-Video von <a href=\"https:\/\/www.youtube.com\/watch?v=cQ54GDm1eL0\" target=\"_blank\" rel=\"noopener nofollow\">Barack Obama,<\/a> in dem dieser \u00fcber Deepfakes sprach (und obendrein gelegentlich den derzeitigen US-Pr\u00e4sidenten beleidigte). Mitte 2019 sahen wir ein kurzes Video von Mark Zuckerberg, der \u00fcberraschenderweise mal ehrlich \u00fcber den aktuellen Stand der Privatsph\u00e4re berichtete.<\/p>\n<p>Um zu verstehen, wie gut die Technologie bereits geworden ist, sollten Sie einen Blick auf das folgende Video werfen. Der Impressionist Jim Meskimen schuf es in Zusammenarbeit mit dem Deepfake-K\u00fcnstler Sham00k. Ersterer war f\u00fcr die Stimmen verantwortlich, w\u00e4hrend letzterer <a href=\"http:\/\/Prominenten\" target=\"_blank\" rel=\"noopener nofollow\">die Gesichter von rund 20 Promis mit Deepfake-Software<\/a> in einem Video vereinte. Das Ergebnis ist wirklich faszinierend.<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/5rPKeUXjEvE?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>In der Videobeschreibung seines \u201eBehind-the-scenes\u201c -Videos schreibt Shamook folgendes: \u201eIn dem Video stecken etwas mehr als 250 Stunden Arbeit, 1200 Stunden Filmmaterial, 300.000 Bilder und fast 1 Terabyte an Daten.\u201c Das hei\u00dft, ein solches Video zu machen ist keine Kleinigkeit. Solche \u00fcberzeugenden Desinformationen k\u00f6nnen jedoch m\u00f6glicherweise massive Auswirkungen auf die M\u00e4rkte oder Wahlen haben, was den Prozess erschreckend einfach und kosteng\u00fcnstig erscheinen l\u00e4sst.<\/p>\n<p>Aus diesem Grund hat Kalifornien fast zur gleichen Zeit, als das oben genannte Video ver\u00f6ffentlicht wurde, politische <a href=\"https:\/\/www.theverge.com\/2019\/10\/7\/20902884\/california-deepfake-political-ban-election-2020\" target=\"_blank\" rel=\"noopener nofollow\">Deepfake-Videos w\u00e4hrend der Wahlsaison verboten<\/a>. Probleme gibt es aber nach wie vor. So sind Deepfakes im Allgemeinen eine expressive Ausdrucksform.<\/p>\n<p>Das zweite Problem ist sowohl technisch als auch praktisch: Wie genau soll man ein falsches Video von einem echten unterscheiden?<\/p>\n<h2>Wie man Deepfakes erkennt<\/h2>\n<p>Maschinelles Lernen ist unter Wissenschaftlern auf der ganzen Welt der letzte Schrei, und das Deepfake-Problem sieht interessant und herausfordernd genug aus, um viele von ihnen zum Einstieg in die Materie zu verleiten. Aus diesem Grund haben sich einige Forschungsprojekte auf die Verwendung der Bildanalyse zur Erkennung von Deepfakes konzentriert.<\/p>\n<p>In einem im Juni 2018 ver\u00f6ffentlichten Artikel wird beispielsweise beschrieben, wie die <a href=\"https:\/\/arxiv.org\/pdf\/1806.02877.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Analyse von Augenzwinkern<\/a> zur Erkennung von Deepfake-Videos beitragen kann. Die Idee ist, dass normalerweise nicht gen\u00fcgend Fotos von einer bestimmten blinkenden Person verf\u00fcgbar sind, sodass neuronale Netze m\u00f6glicherweise nicht genug zum Trainieren haben. Tats\u00e4chlich blinzelten Menschen in Deepfakes zum Zeitpunkt der Ver\u00f6ffentlichung des Forschungsartikel viel zu selten, um es zu glauben und obwohl es den Menschen schwer fiel, die Diskrepanz zu erkennen, half die Computeranalyse.<\/p>\n<p>In zwei Beitr\u00e4gen, die im November 2018 ver\u00f6ffentlicht wurden, wurde vorgeschlagen, nach <a href=\"https:\/\/arxiv.org\/abs\/1811.00656\" target=\"_blank\" rel=\"noopener nofollow\">gesichtsver\u00e4ndernden Merkmalen<\/a> und inkonsistenten Kopfhaltungen zu suchen. Ein anderer Forschungsbeitrag aus dem Jahr 2019 erkl\u00e4rte eine <a href=\"http:\/\/openaccess.thecvf.com\/content_CVPRW_2019\/papers\/Media%252520Forensics\/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf\" target=\"_blank\" rel=\"noopener nofollow\">ausgefeilte Technik<\/a>, die die Gesichtsausdr\u00fccke und Bewegungen analysiert, die f\u00fcr das Sprechmuster eines Individuums typisch sind.<\/p>\n<p>Miller weist jedoch darauf hin, dass diese Methoden auf lange Sicht wahrscheinlich nicht erfolgreich sein werden. Solche Forschungen geben den Deepfake-Erstellern n\u00e4mlich Feedback, das sie verwenden k\u00f6nnen, um ihre diskriminierenden neuronalen Netze zu verbessern, was wiederum zu einer besseren Ausbildung generativer Netze und einer weiteren Verbesserung von Deepfakes f\u00fchrt.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"kesb-trial\">\n<h2>Verwendung der Unternehmenskommunikation zur Minderung von Deepfake-Bedrohungen<\/h2>\n<p>Angesichts der oben genannten Probleme wird derzeit keine rein technologische L\u00f6sung f\u00fcr das Deepfake-Problem sehr effektiv sein. Es gibt aber auch andere M\u00f6glichkeiten. Insbesondere k\u00f6nnen Sie die Bedrohung durch effektive Kommunikation mindern. Sie m\u00fcssen Informationen zu Ihrem Unternehmen \u00fcberwachen und bereit sein, die Erz\u00e4hlfluss zu kontrollieren, falls Sie einem Desinformationsangriff ausgesetzt sind.<\/p>\n<p>Die folgenden Tipps fassen die Vorschl\u00e4ge von Alyssa Miller zusammen, um Ihr Unternehmen auf Deepfake-Bedrohungen vorzubereiten. \u00dcbrigens k\u00f6nnen dieselben Methoden auch f\u00fcr den Umgang mit anderen Arten von PR-Pannen hilfreich sein:<\/p>\n<ul>\n<li>Minimieren Sie die Kan\u00e4le f\u00fcr die Unternehmenskommunikation.<\/li>\n<li>Konsistente Informationsverteilung f\u00f6rdern;<\/li>\n<li>Entwicklung eines Desinformationsreaktionsplans (behandeln Sie diese als <a href=\"https:\/\/www.kaspersky.com\/enterprise-security\/cyber-incident-response-communication\" target=\"_blank\" rel=\"noopener nofollow\">Sicherheitsvorf\u00e4lle<\/a>);<\/li>\n<li>Organisation einer zentralen \u00dcberwachungs- und Berichtsfunktion;<\/li>\n<li>F\u00f6rderung der Fakten\u00fcberpr\u00fcfung;<\/li>\n<li>Verfolgung der Entwicklungstrends von Gegenma\u00dfnahmen zur Erkennung und Vorbeugung von Deepfakes.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Wie k\u00f6nnen Sie Ihr Unternehmen sch\u00fctzen, wenn Deepfakes immer h\u00e4ufiger und \u00fcberzeugender werden?<\/p>\n","protected":false},"author":421,"featured_media":23385,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1848,3107],"tags":[3528,1520,1518,2360,2424,3515,1434,1544],"class_list":{"0":"post-23382","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-business","8":"category-enterprise","9":"tag-deepfakes","10":"tag-ki","11":"tag-kunstliche-intelligenz","12":"tag-maschinelles-lernen","13":"tag-rsa-konferenz","14":"tag-rsa2020","15":"tag-rsac","16":"tag-technologien"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/rsa2020-deepfakes-mitigatio\/23382\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/rsac\/","name":"RSAC"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/23382","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/421"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=23382"}],"version-history":[{"count":6,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/23382\/revisions"}],"predecessor-version":[{"id":23447,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/23382\/revisions\/23447"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/23385"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=23382"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=23382"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=23382"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}