Wie Alexa, Siri und Cortana zu Komplizen für Hacker werden können

07. April 2023, 08:24 |  0 Kommentare

Forscher entwickelten versteckte Sprachbefehle, die für das menschliche Ohr nicht hörbar sind und die Kontrolle über Geräte übernehmen können

Wer Sprachassistenten im Alltag nutzt, muss ihren Einsatz in Zukunft möglicherweise überdenken: US-amerikanische Forscher haben mit einer Attacke namens Nuit (Near-Ultrasound Inaudible Trojan) demonstriert, dass die Schwächen in Mikrofonen von intelligenten Geräten und Sprachassistenten genutzt werden können, um aus der Ferne unbemerkt auf Smartphones und Haushaltsgeräte zuzugreifen. Die Studie ergab, dass Siri von Apple, Google Assistant, Microsofts Cortana und Amazons Alexa für solche Nuit-Angriffe anfällig sind, wenngleich in unterschiedlichem Ausmaß.

Dadurch besteht die Möglichkeit, dass Millionen von Geräten wie Handys, Laptops, Lautsprecher, Lampen, Garagentore und Haustürschlösser aus der Ferne gehackt werden können. Sie müssen "nur" mit speziell erstellten hochfrequenten Tönen manipuliert werden, um unerwünschte Aktionen auszuführen. Das können Telefonanrufe oder Geldtransfers sein, aber auch die Deaktivierung von Alarmsystemen oder das Entriegeln von Türen ist bei entsprechender Hardware im Haus vorstellbar.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 3.0/5 (5 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top