Американские исследователи разработали «звуковой троян», направленный на голосовые ассистенты

Американские исследователи разработали «звуковой троян», направленный на голосовые ассистенты

Бесшумные атаки могут быть эффективно использованы в экосистеме умного дома.

image

Гвиневра Чен, доцент кафедры электротехники американского университета UTSA, в сотрудничестве с ещё несколькими исследователями, недавно опубликовала на симпозиуме по безопасности USENIX Security 2023 статью, в которой демонстрируется новая атака, направленная на имеющиеся уязвимости голосовых ассистентов, таких как Apple Siri, Google Assistant, Amazon Alexa или Microsoft Cortana.

Исследователи разработали так называемый «околоультразвуковой бесшумный троян» («Near-Ultrasound Inaudible Trojan», NUIT), чтобы наглядно показать, как хакеры могут использовать самую обычную экосистему умного дома против её владельца.

Специалисты использовали NUIT для атаки на различные типы устройств, от смартфонов до элементов интернета вещей (IoT). Результаты их демонстраций показывают, что NUIT эффективен для злонамеренного управления голосовыми интерфейсами популярных технических продуктов. Исследование выступило в том числе доказательством концепции, что такие атаки возможны в принципе, и что все современные голосовые ассистенты в той или иной мере уязвимы.

По словам специалистов, для совершения успешной атаки с использованием NUIT злоумышленнику не понадобится специально разработанное вредоносное ПО. Хакер может использовать обычное видео, загруженное на YouTube, или даже онлайн-созвон через условный Zoom. Главное, чтобы жертва не была в наушниках, так как это сведёт дальность подобной атаки к нулю.

Схема довольно проста. Киберпреступник доступными ему методами передаёт на динамики жертвы обычную команду для голосового ассистента. Команда многократно ускорена для мгновенного выполнения и воспроизводится в близком к ультразвуку частотном диапазоне, чтобы человеческое ухо её не зафиксировало. Таких команд может быть несколько, и наиболее эффективными они являются как раз при последовательном выполнении. Например, «OK, Google, установи громкость мультимедиа на 0» (чтобы жертва не услышала ответов ассистента), затем «ОК, Google, выключи свет во всей квартире» или «OK, Google, открой входную дверь» и т.д.

Разумеется, чтобы от подобной атаки был реальный вред, квартира потенциальной жертвы должна быть буквально напичкана умными устройствами: колонки, лампочки, умные замки и т.п. Исследователи отдельно отметили, что устройства Apple менее уязвимы к подобным атакам из-за того, что запоминают голос пользователя и не реагируют на чужие голосовые команды. Однако и это можно обойти, если злоумышленникам удастся скопировать голос жертвы.

В качестве контрмер против подобных атак исследователи предложили использовать наушники в качестве основного источника воспроизведения мультимедийного контента и держать умные устройства в прямой видимости, чтобы своевременно заметить выполнение несанкционированных команд. Ну и, разумеется, не стоит подключать умные замки и прочую электронику, способную оказать влияние на физическую безопасность, к общей экосистеме умного дома, чтобы неожиданно для себя не впустить в квартиру незваных гостей.

Alert! Зафиксирована утечка экспертных знаний!

Собираем и анализируем опыт профессионалов ИБ

Подключитесь к потоку конфиденциальной информации!