Wie Alexa, Siri und Cortana zu Komplizen für Hacker werden können
07. April 2023, 08:24
| 0 KommentareForscher entwickelten versteckte Sprachbefehle, die für das menschliche Ohr nicht hörbar sind und die Kontrolle über Geräte übernehmen können
Wer Sprachassistenten im Alltag nutzt, muss ihren Einsatz in Zukunft möglicherweise überdenken: US-amerikanische Forscher haben mit einer Attacke namens Nuit (Near-Ultrasound Inaudible Trojan) demonstriert, dass die Schwächen in Mikrofonen von intelligenten Geräten und Sprachassistenten genutzt werden können, um aus der Ferne unbemerkt auf Smartphones und Haushaltsgeräte zuzugreifen. Die
Studie ergab, dass Siri von Apple, Google Assistant, Microsofts Cortana und Amazons Alexa für solche Nuit-Angriffe anfällig sind, wenngleich in unterschiedlichem Ausmaß.
Dadurch besteht die Möglichkeit, dass Millionen von Geräten wie Handys, Laptops, Lautsprecher, Lampen, Garagentore und Haustürschlösser aus der Ferne gehackt werden können. Sie müssen "nur" mit speziell erstellten hochfrequenten Tönen manipuliert werden, um unerwünschte Aktionen auszuführen. Das können Telefonanrufe oder Geldtransfers sein, aber auch die Deaktivierung von Alarmsystemen oder das Entriegeln von Türen ist bei entsprechender Hardware im Haus vorstellbar.
Mehr dazu findest Du auf
derstandard.at