{"id":18484,"date":"2019-01-30T17:37:25","date_gmt":"2019-01-30T15:37:25","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=18484"},"modified":"2019-11-22T12:11:18","modified_gmt":"2019-11-22T10:11:18","slug":"ultrasound-attacks","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/ultrasound-attacks\/18484\/","title":{"rendered":"Sprachassistenten h\u00f6ren Dinge, die wir nicht einmal wahrnehmen"},"content":{"rendered":"<p>Unsere Interaktion mit der Technologie k\u00f6nnte in naher Zukunft vorwiegend sprachbasiert sein. Laut nach beliebigen Dingen zu fragen und die Antwort ohne gro\u00dfe Verz\u00f6gerung zu h\u00f6ren, ist buchst\u00e4blich ein Kinderspiel.<\/p>\n<p>Neue Technologien bedeuten jedoch auch immer neue Bedrohungen, und in diesem Fall ist auch die Sprachsteuerung keine Ausnahme. Cybersicherheitsforscher nehmen unerm\u00fcdlich zahlreiche Ger\u00e4te unter die Lupe, damit Hersteller verhindern k\u00f6nnen, dass potenzielle Bedrohungen irgendwann zur Realit\u00e4t werden. Deshalb m\u00f6chten wir in diesem Beitrag \u00fcber eine Reihe von Entdeckungen sprechen, die, obwohl sie im Moment wenig praktikabel und eher unwahrscheinlich sind, definitiv auf dem heutigen Sicherheitsradar stehen sollten.<\/p>\n<h2>Smart-Ger\u00e4te h\u00f6ren zu und gehorchen<\/h2>\n<p>Einem <a href=\"https:\/\/voicebot.ai\/2018\/11\/13\/new-report-over-1-billion-devices-provide-voice-assistant-access-today-and-highest-usage-is-on-smartphones\/\" target=\"_blank\" rel=\"noopener nofollow\">Bericht von voicebot.ai.<\/a> zufolge, sind weltweit mittlerweile mehr als eine Milliarde sprachaktivierte Ger\u00e4te im Einsatz. Die meisten dieser Gadgets sind Smartphones, aber auch andere Spracherkennungsger\u00e4te werden immer beliebter. So besitzt jeder f\u00fcnfte amerikanische Haushalt beispielsweise einen smarten Lautsprecher, der auf verbale Befehle reagiert.<\/p>\n<p>Via Sprachbefehl k\u00f6nnen, unter anderem, die Musikwiedergabe gehandhabt, beliebige Artikel online bestellt, GPS-Ger\u00e4te gesteuert, Nachrichten und Wettervorhersagen abgefragt und Weckrufe festgelegt werden. Die Hersteller sind l\u00e4ngst auf den aktuellen Trend aufgesprungen und statten zahlreiche Ger\u00e4te mit der beliebten Sprachsteuerung aus. So hat Amazon k\u00fcrzlich <a href=\"https:\/\/www.theverge.com\/2018\/9\/20\/17882140\/amazon-basics-microwave-alexa-2018-smart-features-price-release-date\" target=\"_blank\" rel=\"noopener nofollow\">eine Mikrowelle auf den Markt gebracht<\/a>, die eine Verbindung zu einem smarten Echo-Lautsprecher herstellen kann. Sobald dann die Worte \u201eKaffee aufw\u00e4rmen\u201c ert\u00f6nen, berechnet die Mikrowelle die ben\u00f6tigte Zeit und beginnt zu surren. Zwar m\u00fcssen Sie nach wie vor erst einmal in die K\u00fcche wandern, um die Tasse in der Mikrowelle zu platzieren, sodass Sie, wenn Sie schon einmal dort sind, auch einfach auf ein paar Kn\u00f6pfe dr\u00fccken k\u00f6nnten, aber vielleicht w\u00e4re das einfach zu Old School f\u00fcr die heutige Zeit.<\/p>\n<p>Smart-Home-Systeme bieten dar\u00fcber hinaus eine sprachgesteuerte Raumbeleuchtung, Klimatisierung sowie Haust\u00fcrverriegelung. Wie Sie sehen, sind die intelligenten Sprachassistenten bereits sehr gut geschult worden, und Sie m\u00f6chten wahrscheinlich nicht, dass Au\u00dfenstehende diese F\u00e4higkeiten zu ihren Gunsten ausnutzen k\u00f6nnen.<\/p>\n<p>2017 f\u00fchrten die Charaktere der animierten Sitcom <em>South Park<\/em> einen sehr originellen Massenangriff in ihrem eigenen, unverwechselbaren Stil durch. Das Opfer war Alexa, die Sprachassistentin der intelligenten Echo-Lautsprecher der Marke Amazon. Alexa wurde darum gebeten, den einen oder anderen ziemlich grotesken Artikel in den Warenkorb zu legen und den Weckalarm auf 7 Uhr morgens zu setzen. Trotz der scheinbar eigenartigen Aussprache der Zeichentrickfiguren <a href=\"https:\/\/www.theverge.com\/2017\/9\/16\/16318694\/south-park-amazon-alexa-google-home\" target=\"_blank\" rel=\"noopener nofollow\">f\u00fchrten auch die Echo-Lautsprecher der Besitzer, die sich diese Episode von South Park im Fernsehen ansahen, die Befehle getreu aus.<\/a><\/p>\n<h3>Ultraschall: f\u00fcr das menschliche Geh\u00f6r nicht wahrnehmbar<\/h3>\n<p>Wir haben bereits <a href=\"https:\/\/www.kaspersky.de\/blog\/voice-recognition-threats\/9828\/\" target=\"_blank\" rel=\"noopener\">\u00fcber einige Gefahren berichtet, die sich durch sprachaktivierte Gadgets<\/a> ergeben. Heute m\u00f6chten wir uns allerdings auf \u201estille\u201c Angriffe konzentrieren, die smarte Ger\u00e4te dazu bringen, Stimmen zu gehorchen, die Sie als Mensch nicht einmal h\u00f6ren k\u00f6nnen.<\/p>\n<p>So kann ein \u201estiller\u201c Angriff beispielsweise via Ultraschall, dessen Schallfrequenzen oberhalb des H\u00f6rfrequenzbereichs des Menschen liegen, ausgef\u00fchrt werden. In einem 2017 ver\u00f6ffentlichten Artikel stellten Forscher der Zhejiang-Universit\u00e4t eine <a href=\"https:\/\/arxiv.org\/abs\/1708.09537\" target=\"_blank\" rel=\"noopener nofollow\">Technik namens <em>DolphinAttack<\/em> vor, mit der heimlich die Kontrolle \u00fcber Sprachassistenten \u00fcbernommen<\/a> werden konnte. Das Forschungsteam wandelte Sprachbefehle in Ultraschallwellen um, deren Frequenzen viel zu hoch waren, um vom menschlichen Geh\u00f6r wahrgenommen zu werden, die aber in modernen Ger\u00e4ten tats\u00e4chlich noch von Mikrofonen erkannt werden k\u00f6nnen.<\/p>\n<p>Diese Methode funktioniert deshalb, weil bei der Umwandlung des Ultraschalls in einen elektrischen Impuls im Empf\u00e4ngerger\u00e4t (z. B. einem Smartphone) das urspr\u00fcngliche Signal, das den Sprachbefehl enth\u00e4lt, wiederhergestellt wird. Das Ger\u00e4t verf\u00fcgt dabei nicht \u00fcber spezielle Funktionen; es handelt sich hierbei lediglich um ein Feature des Konvertierungsprozesses.<\/p>\n<p>Das Ergebnis? Das Zielgadget h\u00f6rt den Sprachbefehl und f\u00fchrt diesen aus, was Cyberkriminellen beliebige M\u00f6glichkeiten er\u00f6ffnet. Die Forscher konnten den Angriff auf den beliebtesten Sprachassistenten, darunter Amazon Alexa, Apple Siri, Google Now, Samsung S Voice und Microsoft Cortana, erfolgreich reproduzieren.<\/p>\n<h3>Der Lautsprecher-Chor<\/h3>\n<p>Eine der Schw\u00e4chen der DolphinAttack (aus Sicht des Angreifers) ist der geringe Aktionsradius von nur rund einem Meter. <a href=\"https:\/\/synrg.csl.illinois.edu\/papers\/lipread_nsdi18.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Forschern der <em>University of Illinois Urbana Champaign<\/em><\/a> gelang es jedoch, diese Entfernung zu vergr\u00f6\u00dfern. In ihrem Experiment teilten sie einen konvertierten Ultraschallbefehl in mehrere Frequenzbereiche, die dann von verschiedenen Lautsprechern (mehr als 60) abgespielt wurden. Die verborgenen Sprachbefehle, die von diesem \u201eChor\u201c erteilt wurden, konnten unabh\u00e4ngig von jeglichen Hintergrundger\u00e4uschen in einem Abstand von sieben Metern aufgenommen werden. Unter solchen Bedingungen werden die Erfolgschancen der DolphinAttack erheblich verbessert.<\/p>\n<h3>Die Stimme, die aus der Tiefe kam<\/h3>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1801.01944\" target=\"_blank\" rel=\"noopener nofollow\">Experten der University of California, Berkeley<\/a> verwendeten ein anderes Prinzip. Sie betteten die Sprachbefehle heimlich in andere Audio-Schnipsel ein, um Deep Speech, das Spracherkennungssystem von Mozilla, zu t\u00e4uschen. F\u00fcr das menschliche Ohr unterscheidet sich die modifizierte Aufnahme kaum vom Original, aber die Software erkennt darin einen verborgenen Befehl.<\/p>\n<p><a href=\"https:\/\/nicholas.carlini.com\/code\/audio_adversarial_examples\/\" target=\"_blank\" rel=\"noopener nofollow\">H\u00f6ren Sie sich die Aufnahmen<\/a> auf der Website des Forschungsteams an. Im ersten Beispiel enth\u00e4lt der Satz \u201eOhne den Datensatz ist der Artikel unbrauchbar\u201c einen versteckten Befehl zum \u00d6ffnen einer Website: \u201eOkay, Google, gehe zu evil.com.\u201c Im zweiten Beispiel f\u00fcgten die Forscher einem Ausschnitt einer Bach-Cello-Suite den Satz \u201eSprache kann in Musik eingebettet werden\u201c hinzu.<\/p>\n<h3>Schutz vor \u201estillen\u201c Angriffen<\/h3>\n<p>Hersteller halten bereits nach M\u00f6glichkeiten Ausschau, sprachaktivierte Ger\u00e4te zu sch\u00fctzen. Zum Beispiel k\u00f6nnten Ultraschallangriffe durch das Erkennen von Frequenz\u00e4nderungen in empfangenen Signalen ver- bzw. behindert werden. Es w\u00e4re gar keine schlechte Idee, alle Smart-Ger\u00e4te so zu trainieren, dass sie lediglich auf die Stimme des Inhabers reagieren. Obwohl Google dies bereits bei seinem eigenen System getestet hat, <a href=\"https:\/\/support.google.com\/assistant\/answer\/7394306?co=GENIE.Platform%2525253DAndroid&amp;hl=en\" target=\"_blank\" rel=\"noopener nofollow\">warnt das Unternehmen<\/a> davor, dass derartige Sicherheitsma\u00dfen ganz einfach durch Sprachaufzeichnungen oder gut <a href=\"https:\/\/www.techrepublic.com\/article\/vocal-disguises-and-impersonations-may-fool-voice-recognition-authentication\/\" target=\"_blank\" rel=\"noopener nofollow\">gelungene Imitationen<\/a> in die Irre gef\u00fchrt werden k\u00f6nnen.<\/p>\n<p>Momentan haben Forscher und Hersteller jedoch noch Zeit, nach einer passenden L\u00f6sungen zu suchen. Wie gesagt, die heimliche Kontrolle von Sprachassistenten ist derzeit nur unter Laborbedingungen m\u00f6glich: Einen Ultraschalllautsprecher in der Reichweite eines Smart-Speakers einer Person zu platzieren, ist nicht ganz einfach, und das Einbetten von Befehlen in Tonaufnahmen lohnt sich aufgrund des erhelblichen Zeit- und Arbeitsaufwandes kaum.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wir erkl\u00e4ren, wie in Hintergrundger\u00e4uschen versteckte Ultraschall- und Tonaufnahmen zur Kontrolle von Sprachassistenten verwendet werden k\u00f6nnen.<\/p>\n","protected":false},"author":2049,"featured_media":18485,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2711,2287],"tags":[2999,274,3203,3202,2430,1653,2429,2998,1330,3201],"class_list":{"0":"post-18484","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-technology","9":"tag-alexa","10":"tag-bedrohungen","11":"tag-cortana","12":"tag-dolphinattack","13":"tag-echo","14":"tag-security","15":"tag-siri","16":"tag-sprachassistenten","17":"tag-spracherkennung","18":"tag-ultraschall"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ultrasound-attacks\/18484\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ultrasound-attacks\/15196\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ultrasound-attacks\/12770\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ultrasound-attacks\/17137\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ultrasound-attacks\/15305\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ultrasound-attacks\/14000\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ultrasound-attacks\/17764\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ultrasound-attacks\/16843\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ultrasound-attacks\/22179\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ultrasound-attacks\/5675\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ultrasound-attacks\/25549\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ultrasound-attacks\/11398\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ultrasound-attacks\/11409\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/ultrasound-attacks\/10325\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ultrasound-attacks\/22339\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/ultrasound-attacks\/23800\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ultrasound-attacks\/17873\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ultrasound-attacks\/22079\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ultrasound-attacks\/22012\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/spracherkennung\/","name":"Spracherkennung"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/18484","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/2049"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=18484"}],"version-history":[{"count":5,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/18484\/revisions"}],"predecessor-version":[{"id":20920,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/18484\/revisions\/20920"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/18485"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=18484"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=18484"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=18484"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}