t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

US-Forscher manipulieren Sprachassistenten | Siri und Alexa reagieren auf unhörbare Befehle


Nachrichten
Wir sind t-online

Mehr als 150 Journalistinnen und Journalisten berichten rund um die Uhr für Sie über das Geschehen in Deutschland und der Welt.

Zum journalistischen Leitbild von t-online.

US-Forscher manipulieren Sprachassistenten
Siri und Alexa reagieren auf unhörbare Befehle


12.05.2018Lesedauer: 3 Min.
Amazon Echo Dot: Sprachasisstenten lassen sich heimlich manipulierenVergrößern des Bildes
Amazon Echo Dot: Sprachasisstenten lassen sich heimlich manipulieren (Quelle: imago-images-bilder)
News folgen

Wissenschaftler schicken heimlich Befehle an digitale Sprachassistenten. Sie nutzen dafür Frequenzen, die das menschliche Ohr nicht hören kann, die Mikrofone von Alexa, Siri und Google Assistant aber schon. Ist die neue Technik schon außer Kontrolle geraten?

Zugegeben, es klingt bedrohlich. Der digitale Sprachassistent im Wohnzimmer führt plötzlich Kommandos aus, der Mensch bekommt davon nichts mit. Möglich ist das, weil die empfindlichen Mikrofone in Smartphones oder den Geräten von Amazon, Google und Apple Frequenzen wahrnehmen, die das menschliche Ohr nicht hören kann.

Wissenschaftler aus den USA haben in den vergangenen Jahren versucht, genau das auszunutzen. Die "New York Times" hat einige Beispiele zusammengetragen, in denen es gelungen ist. So haben Forscher der US-Universität Berkeley in kurzen Sprach- und Musikclips den Befehl versteckt, eine bestimmte Website aufzurufen. Digitale Assistenten hören das Kommando, der Mensch nicht. Probieren Sie es aus!

Auch digitale Sprachassistenten können sich verhören

Wer Spracheingaben manipulieren will, kann sich neben den Frequenzen aber noch etwas anderes zunutze machen: digitale Assistenten übersetzen in der Regel Sprache in Buchstaben, bevor sie die Befehle ausführen. Sie können sich also verhören. Das kann auch dazu führen, dass sie aus Versehen aktiviert werden. Wer die passenden Verhörer kennt, kann das nutzen und gezielt in Musik oder Tondateien einbauen.

Damit haben die Wissenschaftler eine Lücke offen gelegt, die prinzipiell auch für Schlimmeres ausgenutzt werden kann. Wer Alexa, Siri und Google Assistant dazu kriegt, unbemerkt eine Website aufzurufen, der könnte prinzipiell auf demselben Weg dafür sorgen, dass die Assistenten das Licht ausmachen oder eine Wagenladung Plastik-Weihnachtsbäume bestellen. Oder die Tür öffnen.

Empfohlener externer Inhalt
Youtube

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen Youtube-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren Youtube-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

Mit den Ergebnissen konfrontiert, haben alle großen Hersteller von digitalen Sprachassistenten der "New York Times" Ähnliches geantwortet. Man sei ständig dabei, die Technik besser und sicherer zu machen.

Tatsächlich arbeiten Amazon und Google daran, eine Schlüsselfunktion zu verbessern: die Stimmerkennung. Damit ist es möglich, bestimmte Kommandos nur auszuführen, wenn sie von bekannten und freigeschalteten Stimmen kommen. Kinder könnten dann zwar Hörspiele starten, aber keine kaufen. Auch Befehle aus bisher nicht genutzten Frequenzbereichen, wie sie die US-Forscher genutzt haben, könnten damit leichter zurückgewiesen werden.

  • T-Online gibt's auch auf "Amazon Echo" und "Google Home". Einfach hier klicken und ausprobieren!

Dass so etwas möglich ist, hat Amazon selbst gezeigt. Beim "Super Bowl" 2018, dem Finale der US-Football-Liga, hat das Unternehmen einen TV-Werbespot geschaltet. Darin kam mehrfach das Wort "Alexa" vor, das eigentlich die Sprachassistenten aktiviert. Millionen Geräte sprangen aber nicht an. Amazon hatte vorgesorgt und dabei vermutlich einen Frequenz-Trick genutzt, ähnlich wie die Wissenschaftler. Nur dass im Werbespot eine für Menschen gut hörbare Frequenz genutzt wurde, auf die Alexa aber nicht reagiert.

Das Beispiel zeigt: Amazon kann bestimmte Frequenzen schlicht nicht für die Spracheingabe nutzen. Das könnte das Unternehmen auch mit den Bereichen tun, die die Forscher für ihre heimlichen Manipulationen genutzt haben.

Sicherheitslücken gefunden, Hersteller müssen reagieren

Auch in einem anderen Fall hat Amazon schnell reagiert: Als vor Wochen in sozialen Netzwerken Berichte auftauchten, Alexa würde plötzlich und ohne Befehl laut loslachen wie eine Hexe, änderte der Konzern die entsprechenden Kommandos.

Fest steht, Technik hat Schwachstellen und Fehler, die ausgenutzt werden können. Microsoft veröffentlicht regelmäßig Updates für sein Betriebssystem Windows 10, mit denen auch Sicherheitslücken geschlossen werden. Zudem haben Millionen Computer Software installiert, über die Angriffe möglich sind. Auch Smartphone-Apps werden regelmäßig durch Updates verbessert.

Entscheidend ist, dass Hersteller reagieren und Sicherheitslücken schnell schließen, wenn sie bekannt werden. Deshalb ist die Arbeit der US-Forscher so wichtig: Sie zeigen die Schwachstellen auf. Amazon, Google und Apple müssen sie abstellen. Wir sind umgeben von Technik, die nicht perfekt ist, aber laufend verbessert wird. Das ständige Update ist zum Standard geworden. Das gilt auch für Sprachassistenten.

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website