Временами современные технологии приносят больше вреда, чем пользы. По идее они должны лучше связывать людей друг с другом, хотя часто получается наоборот. Из-за них мы меньше контактируем с окружающим нас миром, а также мы стали реже бороться с эмоциональными проблемами.
Возможно, это несколько односторонний взгляд на вещи, но трудно отрицать, что ежедневно люди не прячутся за ярко светящийся экран своего гаджета.
Внедряя приложение с системой искусственного интеллекта для носимых устройств, Массачусетский технологический институт (MIT) часть своего программного обеспечения разработал таким образом, чтобы люди могли лучше контролировать свои эмоции.
Как это можно сделать? Ну, например, отображая эмоциональное состояние человека прямо перед его глазами на экране устройства. Вот так. Концепция реализована таким образом, что практически невозможно спрятаться от своих чувств, приобретая стеклянное выражение лица и пряча его за экран своего устройства.
Исследователи из Лаборатории информатики и искусственного интеллекта в MIT (CSAIL) и Института медицинской инженерии и наук (Institute of Medical Engineering and Science) недавно реализовали эту идею для технического устройства.
Как все это работает?
Устройство предназначено не для того, чтобы люди перестали использовать свои гаджеты для скрытия своих эмоций, а для того, чтобы помочь людям, одержимым таким подходом в результате глубинной психологической проблемы.
Технология основана на том принципе, что человеческое общение далеко выходит за рамки одной лишь речи. Люди постоянно посылают определенные сигналы с помощью других средств, например, манеры, интонация голоса и даже контакта глазами. Эти невербальные сигналы могут быть сложны для восприятия людьми с различными расстройствами личности или определенными нарушениями в развитии, например, синдромом Аспергера.
Именно это подвигло исследователей MIT разработать программное обеспечение, которое могло бы улавливать речь человека и анализировать его тон, силу звука, лексику и пр.
«Представьте, если в конце разговора Вы могли бы перемотать его и увидеть моменты, когда окружающие Вас люди чувствовали себя не очень здорово» - говорит аспирант Тука Алханай, который был соавтором научной работы по данному вопросу вместе с кандидатом наук Мохаммедом Гассеми. «Наша работа – это шаг в данном направлении, предполагая, что мы, возможно, уже и не далеки от того мира, где люди смогут иметь социального инструктора с искусственным интеллектом прямо в своем кармане».
По информации из новостей MIT, студенты перехватили примерно 30 различных разговоров длительностью несколько минут каждый перед тренировкой на данных двух алгоритмов. После анализа разговоров, один алгоритм классифицировал их как приятные или грустные, а второй помечал пятисекундные блоки разговоров как положительные, негативные или нейтральные.
Данная модель примерно на 7,5% точнее, чем другие существующие методики, однако она еще не настолько надежна и точна, чтобы ее использовать как часть устройства с ручным социальным инструктором. По словам Алханаи, у них получилось уже очень многое. Но чтобы добиться более точных результатов, исследователям потребуется собрать гораздо больше данных.
Какие последствия с точки зрения информационной безопасности?
Во всем этом присутствует немного жутковатый подтекст того, что наши эмоции могут быть «прочитаны» искусственным интеллектом. Тут можно вспомнить фильм «Космическая одиссея 2001», когда изображение компьютера HAL 9000 меняется после того, как он «прочитал» по губам планы главного героя выключить его.
Хотя техника явно не достигла того уровня, когда она может позволить искусственному интеллекту замышлять убийственные планы, команда исследователей призвала проявлять осторожность в том, как будет использоваться система в будущем.
Алгоритм запускается локально на устройстве пользователя для того, чтобы защитить персональную информацию. Алханай также подчеркивает, что потребительская версия продукта, возможно, потребует четкого согласия на его использование от участников беседы.
Становится не совсем комфортно от мысли о том, что данный тип технологий будет использоваться для сбора данных третьих лиц и таргетированной рекламы. Несмотря на это, мы можем видеть, что данная технология становится важной составляющей в будущем носимых устройств и искусственного интеллекта. Огромный технологический шаг в подобном направлении можно увидеть и в детекторах лжи, играющие серьезную роль в безопасности данных, что могло бы даже быть интегрировано в безопасность футуристического смарт-дома.
Вполне вероятно, что в будущем данная технология будет усиливать нашу эмоциональную жизнь, а не притуплять ее.
Бьорн Шуллер, профессор и заведующий кафедрой сложных интеллектуальных систем в Университете Пассау в Германии, похоже, разделяет эту точку зрения. И хотя он не участвовал в проекте, он увлечен тем, куда это все может нас привести:
“Вскоре технология может стать намного более эмоциональной, или даже «эмоциональной» сама по себе”
Мы будем внимательно следить за этой новой технологией, а также за многообещающим движением навстречу тому моменту, когда технологии станут органичной частью нашей жизни, и не будут отвлекать нас от тех вещей, которые действительно имеют огромную ценность.
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.