Еще десять лет назад о технологиях нейроинтерфейсов можно было прочитать, разве что, в научно-фантастической литературе. Однако сегодня это одно из наиболее динамично развивающихся направлений. Появляются системы, способные считывать и обрабатывать мозговые сигналы с невиданной прежде точностью. Какие риски может нести этот быстрый прогресс и как обеспечить защиту нейроинтерфейсов в перспективе — объясняет Станислав Козловский, эксперт по кибербезопасности с опытом построения и развития систем защиты в АО «Почта России», структуре Сбербанка и казахстанском финтехе Solva.
Уже к 2030 году мировой рынок нейроинтерфейсов (Brain-Computer Interface, BCI) может вырасти до пяти миллиардов долларов, а некоторые аналитики настаивают, что показатель будет еще более высоким. Технологии развиваются действительно активными темпами, в том числе, за счет реализации медицинских проектов по восстановлению подвижности и речи у людей с тяжелыми заболеваниями. Свою роль играет и растущий интерес к технологиям управления гаджетами «силой мысли». Над ними работают известные стартапы — Emotiv, Paradromics и Neuralink, который в 2016 году основал Илон Маск.
Прогресс в освоении новой технологии имеет не только плюсы, но и минусы — в виде серьезных рисков. Так, в 2017 году ученые из Университета Алабамы в Бирмингеме (UAB) и Калифорнийского университета в Беркли (UC Berkeley) в ходе одного из исследований выяснили: если человек играет в игру в виртуальной реальности и использует даже дешевый потребительский BCI интерфейс, его мозговая активность обнаруживает паттерны, коррелирующие с набором пароля на клавиатуре.
«Точность таких систем пока еще далека от стопроцентной. Однако сам факт успешной попытки указывает на уязвимости нынешних BCI-устройств. Так что “перехват мыслей” уже не кажется сценарием далекого будущего, особенно учитывая, что технологии машинного обучения стремительно совершенствуются и позволяют извлекать все более детальную информацию из шумных сигналов», — отмечает Станислав Козловский.
Neuralink — стартап, который в последнее время привлекает к себе много внимания. Этому способствуют громкие заявления его создателя и внушительные объемы инвестиций. Компания поставила перед собой амбициозную задачу — разработать имплант, который будет напрямую связывать мозг с компьютером. Он будет обеспечивать как считывание сигналов (например, для управления протезами или компьютером), так и обратную стимуляцию нейронов, чтобы помочь при ряде неврологических расстройств.
В 2023 году Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) официально разрешило Neuralink провести первые клинические испытания имплантов на людях.
«Очевидно, что момент, когда импланты станут массовыми, приближается. Однако если такое устройство будет постоянно подключено к цифровой среде, оно может стать целью кибератак либо использоваться для несанкционированного сбора данных о мозговой активности. Так что особую актуальность приобретают вопрос безопасности и приватности», — считает Станислав Козловский.
Эти риски изучают и в компании Emotiv. Она приобрела известность на рынке игр, обучения и взаимодействия с виртуальной реальностью, однако затем переориентировалась на медицинский сегмент. Результатом стало создание EPOC — одного из самых известных потребительских устройств для электроэнцефалографии. Оно способно улавливать основные паттерны электроэнцефалограммы (ЭЭГ), позволяя пользователю «силой мысли» совершать элементарные действия — например, перемещать курсор, управлять виртуальным объектом.
Уже сегодня такие устройства способны генерировать внушительный массив данных, который хранится на серверах компании или у сторонних разработчиков ПО. Решения становятся все более доступными, их пытаются интегрировать в различные приложения, от VR-шутеров до систем биоуправления в «Умном доме». И очевидно, что «мысленные» данные нуждаются в надежной защите от утечек и взломов.
Какие последствия может повлечь за собой взлом нейроинтерфейса? Это и угроза перехвата и последующей расшифровки информации, и прямое вмешательство в мозговую активность человека. Конечно, сейчас такие атаки выглядят скорее гипотетически, ведь для «загрузки» чужих мыслей или создания иллюзий требуется намного больше знаний о работе нейронных сетей мозга.
Тем не менее, медицинские эксперименты по стимуляции мозга — например, для лечения депрессии или при реабилитации после инсульта, — уже подтверждают возможность точечных воздействий на его определенные участки. И если в будущем такие методы станут доступны в потребительских устройствах и попадут в руки злоумышленников, то несанкционированное воздействие на психическое состояние человека станет не просто темой тревожных прогнозов, но и вполне реальной угрозой.
Защитить нейроинтерфейсы — задача, которая пока выглядит очень сложной, считает Станислав Козловский. Во-первых, биологические данные сложны и многогранны. Чтобы выделить значимую информацию, электрические сигналы мозга нужно фильтровать, оцифровывать и подвергать алгоритмам машинного обучения. Весь этот процесс подразумевает передачу данных по различным каналам — проводным, беспроводным или облачным, где уязвимым может стать буквально каждый узел передачи. Во-вторых, даже если данные надежно шифруются, всегда остается риск утечек ключей и «человеческого фактора» — будь то недобросовестные сотрудники или ошибки в коде. И в-третьих, большую часть существующих систем проектировали все-таки энтузиасты и разработчики, вдохновленные идеей удобного или инновационного интерфейса. Именно на кибербезопасности они изначально не фокусировались, так что сейчас защита данных обеспечивается, как правило, уже постфактум, после выхода технологии на коммерческий рынок.
«Важнейший элемент безопасности — правовая регуляция. Сегодня ни в одной стране мира нет более или менее четкого “законодательства о нейроинтерфейсах”. При этом в США и странах ЕС формируются рабочие группы и экспертные сообщества, которые обсуждают этические и правовые аспекты. Однако нужно сформулировать четкие определения того, какие данные в контексте нейроинтерфейсов считаются «личными» или «биометрическими», определить, должны ли они подчиняться тем же самым правилам, что и генетический материал, отпечатки пальцев», — считает Станислав Козловский, добавляя, что также необходимы и стандарты безопасности, обязательные для всех производителей BCI-систем. На сегодняшний день, отмечает эксперт, их фактически нет, и каждая компания решает вопросы шифрования и защиты по-своему.
«Там, где появляются большие деньги и коммерческие интересы, возникает и серьезный риск злоупотреблений, начиная со сбора “мысленных” данных в маркетинговых целях, и заканчивая сознательной манипуляцией эмоциями и поведением пользователя. Более того, воздействие через стимуляцию нейронов может иметь своей целью зоны мозга, отвечающие за принятие решений или уровень тревожности. А это теоретически открывает дорогу к методам скрытого управления человеком», — рассуждает эксперт.
У нейроинтерфейсов колоссальный потенциал, и это невозможно отрицать. Проведение медицинских исследований дает надежду на успешное лечение болезней, которые раньше считались приговором. Уже сейчас проводятся эксперименты по восстановлению речи у пациентов с травмами головного мозга, по реабилитации после инсультов и дегенеративных заболеваний, например, болезни Паркинсона.
Технологии BCI могут вернуть людям с ограниченными возможностями независимость, дать им возможность полноценно общаться с миром. И важнейшая задача общества в таких условиях — найти золотую середину, развивая передовые технологии, способные спасать жизнь, повышать ее качество, и одновременно вырабатывая строгие правила, такие, чтобы кибербезопасность и защита сознания оставались на первом месте.
«Сегодня мы находимся на пороге новой эры, когда границы между человеком и компьютером начинают стираться. И если раньше угроза “взлома” касалась в основном банковских счетов или личных фотографий, то завтра под прицелом может оказаться самое сокровенное — мысли и эмоции. От того, насколько серьезно мы подойдём к кибербезопасности нейроинтерфейсов сегодня, будет зависеть, получим ли мы мир, в котором благодаря новым технологиям человечество расширит свои возможности, или же окажемся в мрачной реальности, где наше собственное сознание может стать целью атаки или товаром на рынке данных», — предупреждает Станислав Козловский.
Александр Антипов,Спойлер: мы раскрываем их любимые трюки