A A A

Laser może przejąć kontrolę nad asystentem głosowym

6 listopada 2019, 15:05
Naukowcy wykazali luki w działaniu „inteligentnych” głośników. Byli w stanie wydawać im skuteczne polecenia ze sporej odległości.
Laser może przejąć kontrolę nad asystentem głosowym

Badacze z Uniwersytetu Michigan i Uniwersytetu Elektronicznego (The University od Electro-Communications) w Tokio przedstawili wyniki eksperymentu, w którym udało im się przejąć kontrolę nad urządzeniami Google Assistant, Apple Siri i Amazon Alexa, a nawet nad telefonami i tabletami obsługującymi funkcje poleceń głosowych. Zrobili to za pomocą światła przekazywanego do mikrofonu wskaźnikiem laserowym.

Wskutek wprowadzenia w błąd inteligentnego głośnika badaczom udało się między innymi otworzyć drzwi garażu, zamówić zakupy i odblokować samochody wykorzystujące systemy sztucznej inteligencji połączone z poleceniami głosowymi. Niektóre operacje przeprowadzono skutecznie z odległości nawet 110 metrów od urządzenia. Przeszkodą dla sygnału laserowego nie były na przykład szyby.

Wrażliwa membrana

Jak wyjaśniają autorzy eksperymentu, w mikrofonach MEMS wykorzystywanych w urządzeniach głosowych znajduje się niewielka płytka (membrana), która porusza się pod wpływem dźwięku. Lasery potrafią ten ruch odczytać, powielić i przekształcić w sygnały elektryczne zrozumiałe dla urządzenia. Na przykład do wspomnianego otwarcia garażu system Google Home został nakłoniony poprzez wykorzystanie modulacji laserowej odpowiadającej poleceniu głosowemu „OK Google, otwórz drzwi garażu".

O problemie zostali już powiadomieni inżynierowie Amazonu, Apple'a, Google'a, Tesli i Forda – bo produkty tych firm były obiektem badania. Rozwiązanie problemu może wymagać przeprojektowania mikrofonów wykorzystywanych w urządzeniach głosowych.

Atak światłem

W opisie eksperymentu przeprowadzony atak został nazwany LightCommands, ponieważ właśnie światło posłużyło do „wstrzyknięcia" niesłyszalnych poleceń do systemów sterowanych głosem.

Alexa, Siri czy Asystent Google zostały już wdrożone w milionach urządzeń, co przyczynia się do rozwoju internetu rzeczy (Internet of Things, IoT). Wiadomo, że producenci aktywni w obszarze IoT doskonalą oprogramowanie integrujące współpracę urządzeń z systemami sterowania, projektują użyteczne interfejsy itd., za mało jednak mówi się o odporności tych systemów, sprzętów i komponentów sterujących na różnego rodzaju ataki. Jako jeden z problemów asystentów głosowych badacze wskazują brak odpowiedniego uwierzytelniania korzystających z nich osób.

Eksperyment z LightCommands tylko potwierdził potrzebę zwrócenia większej uwagi na kwestie bezpieczeństwa.

fot. YouTube/Light Commands

 

 


Tagi:
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności


Nie zapomnij o haśle!
21 czerwca 2022
Choć mogą się wydawać mało nowoczesne, hasła to nadal nie tylko jeden z najpopularniejszych sposobów zabezpieczania swoich kont, ale także...


Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto