Warning: Use of undefined constant USING_SEPARATE_MOBILE_VERSION - assumed 'USING_SEPARATE_MOBILE_VERSION' (this will throw an Error in a future version of PHP) in /www/htdocs/w013a356/bluebit.de/mods/core/classes/Main.class.php on line 9

Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /www/htdocs/w013a356/bluebit.de/mods/article/classes/InfoboxContainer.class.php on line 45
Alexa, Google Now & Siri per Ultraschall gehackt
bluebit

Delfin-Angriff

Alexa, Google Now & Siri per Ultraschall gehackt

von Dennis Lenz •

Chinesische Sicherheitsforscher ist es mit dem sogenannten Delfin-Angriff gelungen, Sprachassistenten wie Alexa, Cortana, Google Now, Siri und Co. zu hacken. Offenbar weisen alle populären Sprachassistenten diese Sicherheitslücke auf.


0 Kommentare

Wie jetzt chinesische Sicherheitsforscher der Universität Zhejiang herausgefunden haben, sind nahezu alle Sprachassistenten wie beispielsweise Alexa, Cortana, Google Now, Huawei Hivoice, Samsung S Voice oder Siri anfällig für Angriffe im nicht hörbaren Ultraschallbereich. Mit Hilfe eines sogenannten Delfin-Angriffs haben die Forscher den Sprachassistenten Befehle im Ultraschallbereich geben und sie zu bestimmten Aktionen befehligen können.

Für ihren Hack haben die Forscher ein Smartphone benutzt, welches sie mit zusätzlicher Hardware im Wert von umgerechnet drei US-Dollar aufgerüstet haben. Zu den Modifikationen gehörten ein kleiner Lautsprecher sowie ein Verstärker. Es könnte also jeder mit etwas technischem Grundwissen einen solchen Angriff auf die Sprachassistenzsysteme verüben – doch ganz so leicht ist es zum Glück dann doch nicht.

Für einen erfolgreichen Angriff auf Alexa, Google Now, Siri und Co. Ist die physische Nähe zum entsprechenden Gerät notwendig, denn der Angreifer muss die Geräte zunächst über die gängigen Kommandos wie „Alexa“ oder „Hey Siri“ aktivieren. Erst danach können die im Ultraschallbereich übermittelten Befehle übertragen werden. Bei Google Now oder Siri wäre dies an einem vollen öffentlichen Ort durchaus möglich.

Wie die Sicherheitsforscher mitteilten, ist es ihnen so beispielsweise gelungen, Anrufe zu tätigen, Websites aufzurufen und sogar das Navigationssystem eines Audis zu manipulieren.

Sicherheitslücken würden sich einfach abschalten lassen

Laut den Experten wäre es möglich, dass die Geräte wie Amazon Echo, Google Home, Computer oder auch Smartphones nur noch Befehle ausführen, die von Tönen innerhalb des menschlichen Sprachspektrums stammen. Jedoch hat bisher keine der Unternehmen ein solches Update bereitgestellt.

Wer sich vor solchen Delfin-Angriffen schützen möchte, der kann dies relativ einfach tun – jedoch auf Kosten der Nutzerfreundlichkeit. Bei den Smart-Lautsprechern beispielsweise muss die Always-on-Funktion deaktiviert werden. Dazu ist bei Amazon Echo und Google Home ein Knopf verbaut, mit dem sich das Mikrofon abschalten lässt. Dies schützt zwar vor solchen Angriffen, macht diese Geräte aber recht unbrauchbar, da sie dann nicht mehr auf Zuruf reagieren.

0 Kommentare

Kommentar verfassen