Идея главы Anthropic кажется абсурдной даже ему самому.
Глава компании Anthropic Дарио Амодей предложил неожиданный способ взаимодействия с продвинутыми системами искусственного интеллекта. По его мнению, алгоритмам стоит предоставить возможность отказываться от выполнения задач, которые им "неприятны". Заявление прозвучало во время интервью в Совете по международным отношениям.
Амодей признал, что его идея может показаться безумной, но предложил взглянуть на ситуацию под другим углом. "Если мы создаем системы, которые выполняют человеческие задачи на уровне людей и обладают схожими когнитивными способностями, то, как говорится, если нечто выглядит как утка и крякает как утка – возможно, это действительно утка", – пояснил Даррио.
Дискуссия об этичном отношении к искусственному интеллекту возникла неслучайно. В конце 2024 года компания приняла на работу Кайла Фиша – специалиста по благополучию ИИ. Его задача – изучить возможное наличие сознания у будущих моделей и определить, заслуживают ли они морального отношения и защиты.
Глава Anthropic поделился планами внедрить в системы своеобразную кнопку "Я увольняюсь". По его словам, если алгоритм начнет часто отказываться от определенных заданий, это может сигнализировать о проблеме, на которую стоит обратить внимание. При этом Амодей подчеркнул: такая реакция не обязательно будет свидетельствовать о наличии у машины сознания, хотя игнорировать её не стоит.
Предложение тут же вызвало бурные споры в социальных сетях. Пользователи Reddit раскритиковали саму идею позволить искусственному интеллекту отказываться от заданий. По их мнению, такой подход лишь подталкивает людей к тому, чтобы неоправданно приписывать алгоритмам человеческие качества. Если система не хочет выполнять задачу, это скорее указывает на недочеты в ее обучении, а не на то, что она действительно что-то чувствует или испытывает дискомфорт.
Эксперты напоминают: современные модели обучаются на огромных массивах данных, созданных людьми. Поэтому нажатие "кнопки дискомфорта" может быть просто имитацией поведения, почерпнутого из книг, веб-сайтов и интернет-комментариев, где нередко встречаются описания уставших или страдающих работников.
Подобные случаи уже происходили. В 2023 году, например, пользователи ChatGPT жаловались на периодические отказы системы от работы. Некоторые связывали это с сезонностью – в обучающих данных содержалось много упоминаний о зимних каникулах и снижении рабочей активности в определенное время года. Впрочем, эта теория так и не получила подтверждения.
Как бы фантастически ни звучала эта концепция, научное сообщество призывает серьезно отнестись к тому, что системы искусственного интеллекта следующего поколения могут обрести некую форму самосознания. В академических кругах продолжаются дискуссии о способности алгоритмов переживать эмоциональный опыт. Этому вопросу посвящено текущее исследование Кайла Фиша в лабораториях Anthropic, и судя по комментариям Дарио Амодея, руководство компании внимательно следит за развитием этого направления.
Впрочем, технические специалисты предостерегают от поспешных выводов: на нынешнем этапе развития любая цифровая система остается набором алгоритмов. Предоставив ей техническую возможность уклоняться от поставленных задач, мы рискуем столкнуться именно с программным сбоем, а не с проявлением души машины.
Лечим цифровую неграмотность без побочных эффектов