Кибербезопасность на страже мыслей и сознания: как защититься от «взлома мозга»

Кибербезопасность на страже мыслей и сознания: как защититься от «взлома мозга»
image

Еще десять лет назад о технологиях нейроинтерфейсов можно было прочитать, разве что, в научно-фантастической литературе. Однако сегодня это одно из наиболее динамично развивающихся направлений. Появляются системы, способные считывать и обрабатывать мозговые сигналы с невиданной прежде точностью. Какие риски может нести этот быстрый прогресс и как обеспечить защиту нейроинтерфейсов в перспективе — объясняет Станислав Козловский, эксперт по кибербезопасности с опытом построения и развития систем защиты в АО «Почта России», структуре Сбербанка и казахстанском финтехе Solva.

Подводные камни прогресса

Уже к 2030 году мировой рынок нейроинтерфейсов (Brain-Computer Interface, BCI) может вырасти до пяти миллиардов долларов, а некоторые аналитики настаивают, что показатель будет еще более высоким. Технологии развиваются действительно активными темпами, в том числе, за счет реализации медицинских проектов по восстановлению подвижности и речи у людей с тяжелыми заболеваниями. Свою роль играет и растущий интерес к технологиям управления гаджетами «силой мысли». Над ними работают известные стартапы — Emotiv, Paradromics и Neuralink, который в 2016 году основал Илон Маск.

Прогресс в освоении новой технологии имеет не только плюсы, но и минусы — в виде серьезных рисков. Так, в 2017 году ученые из Университета Алабамы в Бирмингеме (UAB) и Калифорнийского университета в Беркли (UC Berkeley) в ходе одного из исследований выяснили: если человек играет в игру в виртуальной реальности и использует даже дешевый потребительский BCI интерфейс, его мозговая активность обнаруживает паттерны, коррелирующие с набором пароля на клавиатуре.

«Точность таких систем пока еще далека от стопроцентной. Однако сам факт успешной попытки указывает на уязвимости нынешних BCI-устройств. Так что “перехват мыслей” уже не кажется сценарием далекого будущего, особенно учитывая, что технологии машинного обучения стремительно совершенствуются и позволяют извлекать все более детальную информацию из шумных сигналов», — отмечает Станислав Козловский.

Почему кибербезопасность выходит на первый план

Neuralink — стартап, который в последнее время привлекает к себе много внимания. Этому способствуют громкие заявления его создателя и внушительные объемы инвестиций. Компания поставила перед собой амбициозную задачу — разработать имплант, который будет напрямую связывать мозг с компьютером. Он будет обеспечивать как считывание сигналов (например, для управления протезами или компьютером), так и обратную стимуляцию нейронов, чтобы помочь при ряде неврологических расстройств.

В 2023 году Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) официально разрешило Neuralink провести первые клинические испытания имплантов на людях.

«Очевидно, что момент, когда импланты станут массовыми, приближается. Однако если такое устройство будет постоянно подключено к цифровой среде, оно может стать целью кибератак либо использоваться для несанкционированного сбора данных о мозговой активности. Так что особую актуальность приобретают вопрос безопасности и приватности», — считает Станислав Козловский.

Эти риски изучают и в компании Emotiv. Она приобрела известность на рынке игр, обучения и взаимодействия с виртуальной реальностью, однако затем переориентировалась на медицинский сегмент. Результатом стало создание EPOC — одного из самых известных потребительских устройств для электроэнцефалографии. Оно способно улавливать основные паттерны электроэнцефалограммы (ЭЭГ), позволяя пользователю «силой мысли» совершать элементарные действия — например, перемещать курсор, управлять виртуальным объектом.

Уже сегодня такие устройства способны генерировать внушительный массив данных, который хранится на серверах компании или у сторонних разработчиков ПО. Решения становятся все более доступными, их пытаются интегрировать в различные приложения, от VR-шутеров до систем биоуправления в «Умном доме». И очевидно, что «мысленные» данные нуждаются в надежной защите от утечек и взломов.

Как защитить нейроинтерфейсы

Какие последствия может повлечь за собой взлом нейроинтерфейса? Это и угроза перехвата и последующей расшифровки информации, и прямое вмешательство в мозговую активность человека. Конечно, сейчас такие атаки выглядят скорее гипотетически, ведь для «загрузки» чужих мыслей или создания иллюзий требуется намного больше знаний о работе нейронных сетей мозга.

Тем не менее, медицинские эксперименты по стимуляции мозга — например, для лечения депрессии или при реабилитации после инсульта, — уже подтверждают возможность точечных воздействий на его определенные участки. И если в будущем такие методы станут доступны в потребительских устройствах и попадут в руки злоумышленников, то несанкционированное воздействие на психическое состояние человека станет не просто темой тревожных прогнозов, но и вполне реальной угрозой.

Защитить нейроинтерфейсы — задача, которая пока выглядит очень сложной, считает Станислав Козловский. Во-первых, биологические данные сложны и многогранны. Чтобы выделить значимую информацию, электрические сигналы мозга нужно фильтровать, оцифровывать и подвергать алгоритмам машинного обучения. Весь этот процесс подразумевает передачу данных по различным каналам — проводным, беспроводным или облачным, где уязвимым может стать буквально каждый узел передачи. Во-вторых, даже если данные надежно шифруются, всегда остается риск утечек ключей и «человеческого фактора» — будь то недобросовестные сотрудники или ошибки в коде. И в-третьих, большую часть существующих систем проектировали все-таки энтузиасты и разработчики, вдохновленные идеей удобного или инновационного интерфейса. Именно на кибербезопасности они изначально не фокусировались, так что сейчас защита данных обеспечивается, как правило, уже постфактум, после выхода технологии на коммерческий рынок.

Закон и мораль

«Важнейший элемент безопасности правовая регуляция. Сегодня ни в одной стране мира нет более или менее четкого “законодательства о нейроинтерфейсах”. При этом в США и странах ЕС формируются рабочие группы и экспертные сообщества, которые обсуждают этические и правовые аспекты. Однако нужно сформулировать четкие определения того, какие данные в контексте нейроинтерфейсов считаются «личными» или «биометрическими», определить, должны ли они подчиняться тем же самым правилам, что и генетический материал, отпечатки пальцев», — считает Станислав Козловский, добавляя, что также необходимы и стандарты безопасности, обязательные для всех производителей BCI-систем. На сегодняшний день, отмечает эксперт, их фактически нет, и каждая компания решает вопросы шифрования и защиты по-своему.

«Там, где появляются большие деньги и коммерческие интересы, возникает и серьезный риск злоупотреблений, начиная со сбора “мысленных” данных в маркетинговых целях, и заканчивая сознательной манипуляцией эмоциями и поведением пользователя. Более того, воздействие через стимуляцию нейронов может иметь своей целью зоны мозга, отвечающие за принятие решений или уровень тревожности. А это теоретически открывает дорогу к методам скрытого управления человеком», — рассуждает эксперт.

Цель — золотая середина

У нейроинтерфейсов колоссальный потенциал, и это невозможно отрицать. Проведение медицинских исследований дает надежду на успешное лечение болезней, которые раньше считались приговором. Уже сейчас проводятся эксперименты по восстановлению речи у пациентов с травмами головного мозга, по реабилитации после инсультов и дегенеративных заболеваний, например, болезни Паркинсона.

Технологии BCI могут вернуть людям с ограниченными возможностями независимость, дать им возможность полноценно общаться с миром. И важнейшая задача общества в таких условиях — найти золотую середину, развивая передовые технологии, способные спасать жизнь, повышать ее качество, и одновременно вырабатывая строгие правила, такие, чтобы кибербезопасность и защита сознания оставались на первом месте.

«Сегодня мы находимся на пороге новой эры, когда границы между человеком и компьютером начинают стираться. И если раньше угроза “взлома” касалась в основном банковских счетов или личных фотографий, то завтра под прицелом может оказаться самое сокровенное — мысли и эмоции. От того, насколько серьезно мы подойдём к кибербезопасности нейроинтерфейсов сегодня, будет зависеть, получим ли мы мир, в котором благодаря новым технологиям человечество расширит свои возможности, или же окажемся в мрачной реальности, где наше собственное сознание может стать целью атаки или товаром на рынке данных», — предупреждает Станислав Козловский.

Александр Антипов,
главный редактор Securitylab.
Хакеры ненавидят этот канал!

Спойлер: мы раскрываем их любимые трюки

Расстройте их планы — подпишитесь