Зловещая долина ИИ: почему мы боимся человекоподобных машин

Зловещая долина ИИ: почему мы боимся человекоподобных машин

Аналитики уверены: мы слишком многого ждем от LLM.

image

Генеративный искусственный интеллект поражает нас своей непредсказуемостью, и далеко не всегда в положительном ключе. Казалось бы, совершенствование технологий должно делать ИИ более предсказуемым. Однако происходит обратное – чем больше разработчики стараются приблизить поведение ИИ к человеческому, тем чаще пользователи сталкиваются с пугающим эффектом "зловещей долины".

Зловещая долина — это психологическое явление, которое описывает негативную реакцию человека на объекты, которые выглядят почти, но не совсем, как живые существа. Когда робот или компьютерная графика становятся слишком похожими на человека, они вызывают чувство дискомфорта и отторжения. Это ощущение связано с тем, что наш мозг распознает небольшие несовершенства, нарушающие иллюзию живого образа, и воспринимает их как тревожные и странные. Правда, обычно это все же касается физических объектов.

Многие ученые полагают, что решить проблему можно техническими методами – увеличить объемы данных для обучения или усовершенствовать алгоритмы. Однако последние исследования показывают: корень проблемы лежит глубже и связан с тем, как люди воспринимают искусственный интеллект.

К такому выводу пришли аналитики компании Thoughtworks в своем новом отчете Technology Radar . Изучив опыт множества клиентов по всему миру, они обнаружили, что разработчики ИИ недостаточно учитывают психологию пользователей – их ожидания, страхи и предубеждения.

Особенно ярко это проявляется в сфере программирования. Все больше разработчиков слепо доверяют коду, который генерирует ИИ, или полностью заменяют совместную работу с коллегами на общение с ИИ-помощниками. Обе тенденции опасны, поскольку программисты не осознают реальных ограничений технологии.

Еще серьезнее ситуация выглядит для компаний, которые внедряют генеративный ИИ в свои продукты. Даже если система работает технически безупречно, малейший намек на обман или манипуляции разрушит доверие к продукту. Неслучайно в Евросоюзе уже приняли закон, обязывающий помечать дипфейки и другой контент, созданный искусственным интеллектом.

Схожие проблемы встречаются и в других сферах. Еще в 2011 году известный разработчик Мартин Фаулер описывал эффект "зловещей долины" в кроссплатформенных мобильных приложениях. По его словам, даже минимальные отклонения от привычного поведения нативных элементов интерфейса способны дезориентировать пользователей.

Ключевой вывод Фаулера актуален и для генеративного ИИ: разные платформы предполагают разные паттерны использования, которые влияют на весь пользовательский опыт. В контексте языковых моделей это означает, что риск попадания в "зловещую долину" зависит от конкретного применения и ожиданий пользователя.

Специалисты приводят наглядный пример: для исследователя, работающего над новыми лекарствами и анализирующего огромные массивы синтетических данных, небольшие неточности могут быть допустимы. А вот юристу, разбирающему правовые документы, критически важна каждая деталь – малейшая ошибка может иметь серьезные последствия.

Профессор Пенсильванского университета Итан Молик предлагает радикально переосмыслить наш подход к ИИ. По его мнению, нужно перестать воспринимать эти системы как совершенное программное обеспечение. Вместо этого он предлагает относиться к ним как к "достаточно компетентным людям" со всеми присущими им особенностями и ограничениями.

Наше представление о возможностях ИИ должно оставаться гибким и подвергаться постоянной корректировке. Парадоксально, но именно пересмотр наших ожиданий и предположений может помочь преодолеть эффект "зловещей долины".

И инструменты, помогающие с этой задачей, уже есть. Например, технология RAG (Retrieval Augmented Generation) помогает точнее контролировать контекстное окно, а библиотеки Ragas и DeepEval предоставляют разработчикам инструменты для оценки достоверности и релевантности результатов. Появляются и специальные ограничители для языковых моделей – так называемые LLM guardrails.

Особое значение приобретает возможность "заглянуть внутрь" нейросетей. Хотя полностью раскрыть их внутренние процессы пока невозможно, инструменты наподобие Langfuse позволяют лучше понять происходящие в них процессы.

Ищем уязвимости в системе и новых подписчиков!

Первое — находим постоянно, второе — ждем вас

Эксплойтните кнопку подписки прямо сейчас