Laser może przejąć kontrolę nad asystentem głosowym
Badacze z Uniwersytetu Michigan i Uniwersytetu Elektronicznego (The University od Electro-Communications) w Tokio przedstawili wyniki eksperymentu, w którym udało im się przejąć kontrolę nad urządzeniami Google Assistant, Apple Siri i Amazon Alexa, a nawet nad telefonami i tabletami obsługującymi funkcje poleceń głosowych. Zrobili to za pomocą światła przekazywanego do mikrofonu wskaźnikiem laserowym.
Wskutek wprowadzenia w błąd inteligentnego głośnika badaczom udało się między innymi otworzyć drzwi garażu, zamówić zakupy i odblokować samochody wykorzystujące systemy sztucznej inteligencji połączone z poleceniami głosowymi. Niektóre operacje przeprowadzono skutecznie z odległości nawet 110 metrów od urządzenia. Przeszkodą dla sygnału laserowego nie były na przykład szyby.
Wrażliwa membrana
Jak wyjaśniają autorzy eksperymentu, w mikrofonach MEMS wykorzystywanych w urządzeniach głosowych znajduje się niewielka płytka (membrana), która porusza się pod wpływem dźwięku. Lasery potrafią ten ruch odczytać, powielić i przekształcić w sygnały elektryczne zrozumiałe dla urządzenia. Na przykład do wspomnianego otwarcia garażu system Google Home został nakłoniony poprzez wykorzystanie modulacji laserowej odpowiadającej poleceniu głosowemu „OK Google, otwórz drzwi garażu".
O problemie zostali już powiadomieni inżynierowie Amazonu, Apple'a, Google'a, Tesli i Forda – bo produkty tych firm były obiektem badania. Rozwiązanie problemu może wymagać przeprojektowania mikrofonów wykorzystywanych w urządzeniach głosowych.
Atak światłem
W opisie eksperymentu przeprowadzony atak został nazwany LightCommands, ponieważ właśnie światło posłużyło do „wstrzyknięcia" niesłyszalnych poleceń do systemów sterowanych głosem.
Alexa, Siri czy Asystent Google zostały już wdrożone w milionach urządzeń, co przyczynia się do rozwoju internetu rzeczy (Internet of Things, IoT). Wiadomo, że producenci aktywni w obszarze IoT doskonalą oprogramowanie integrujące współpracę urządzeń z systemami sterowania, projektują użyteczne interfejsy itd., za mało jednak mówi się o odporności tych systemów, sprzętów i komponentów sterujących na różnego rodzaju ataki. Jako jeden z problemów asystentów głosowych badacze wskazują brak odpowiedniego uwierzytelniania korzystających z nich osób.
Eksperyment z LightCommands tylko potwierdził potrzebę zwrócenia większej uwagi na kwestie bezpieczeństwa.
fot. YouTube/Light Commands