Новий хак використовує лазери для надсилання нечутних команд на ваш Amazon Echo



Нова фотоакустична вада голосових асистентів, таких як Siri, Alexa та Google Assistant, може зробити їх уразливими до ряду атак, за допомогою яких лазери вводять нечутні команди в смартфони та динаміки, а також приховують, що вони відкривають двері, купують електронну комерцію веб-сайти та навіть запускати транспортні засоби.

Напади, що отримали назву "Легкі команди", були розкриті дослідниками університету електрокомунікацій та Мічиганського університету в Токіо.

Роман атаки працює, вставляючи акустичні сигнали в мікрофони, використовуючи лазерне світло – на відстані 110 метрів або 360 футів -, що використовує вразливість мікрофонів MEMS (він же мікро-електромеханічні системи), щоб ненавмисно реагувати на світло так, як вони якби це було звуком.

"Модулюючи електричний сигнал в інтенсивності світлового променя, зловмисники можуть обманювати мікрофони на виробництво електричних сигналів так, ніби вони отримують справжній звук", – констатували дослідники у статті.

Однак поки що немає ознак того, що ця атака була зловмисно використана в дикій природі.

Хоча атака вимагає, щоб лазерний промінь знаходився в безпосередній прямій видимості до відповідного цільового пристрою, він підкреслює небезпеку віддаленої активації голосово-керованих систем, не допускаючи будь-якої форми автентифікації, наприклад пароля. Більш тривожно, що ці команди світла можна видавати в будівлях і навіть через закриті скляні вікна.

Мікрофони MEMS містять невелику вбудовану платівку під назвою діафрагма, яка при попаданні звукових або світлових хвиль перетворюється на електричний сигнал, який потім декодується у фактичні команди. Дослідники знайшли спосіб кодування звуку, регулюючи інтенсивність лазерного променя, змушуючи мікрофони видавати електричні сигнали так само, як і звук.

Таким чином, зловмисник може використовувати налаштування, що складається з лазерного вказівника, лазерного драйвера та підсилювача звуку, щоб викрасти голосовий помічник і віддалено видавати команди Alexa, Siri, Portal або Google Assistant без втручання жертви. Щоб зробити його ще крадькома, хакер міг використовувати інфрачервоний лазер, який був би невидимий неозброєним оком.

Дослідники працюють над тим, щоб визначити, що саме викликає мікрофони MEMS на світло. На цьому етапі вони віднесли причину до «семантичного розриву між фізикою та технічними характеристиками MEMS».

Дослідники заявили, що вони протестували атаку на різних пристроях, які використовують голосові помічники, включаючи Google Nest Cam IQ, Amazon Echo, Facebook Portal, iPhone Xr, Samsung Galaxy S9 та Google Pixel 2. Але вони застерігають, що будь-яка система, яка використовує MEMS мікрофони та дії на дані без додаткового підтвердження користувача можуть бути вразливими.

Такі несанкціоновані команди можна пом'якшити, додавши другий рівень аутентифікації, отримуючи аудіовхід з декількох мікрофонів або навіть реалізуючи обкладинку, яка фізично блокує світло, що потрапляє на мікрофони.

Хоча це безумовно втішає, що ці атаки легкими ін'єкціями не були використані, відкриття, незважаючи на обмеження, представляє новий вектор атаки, який вимагатиме від виробників пристроїв встановити нові засоби захисту.