Открытое письмо: договоры о неразглашении вредят безопасности алгоритмов.
Группа бывших и нынешних сотрудников компании OpenAI, разработчика таких продуктов как ChatGPT, опубликовала открытое письмо с критикой в адрес индустрии искусственного интеллекта. В письме они выразили обеспокоенность стремительным развитием ИИ-технологий при отсутствии должного регулирования и надзора со стороны государства и общества.
«Компании в сфере ИИ имеют серьезные финансовые стимулы избегать эффективного надзора, и мы не считаем, что собственных внутренних мер корпоративного управления будет достаточно, чтобы изменить ситуацию», — говорится в письме.
По мнению авторов, OpenAI, Google, Microsoft, Meta* и другие технологические гиганты ведут настоящую гонку вооружений в области генеративного ИИ. Этот рынок, по прогнозам, будет приносить более триллиона долларов годового дохода уже в ближайшее десятилетие.
Сотрудники OpenAI утверждают, что компании владеют «существенным объемом конфиденциальной информации» о реальных возможностях своих ИИ-продуктов, мерах безопасности и уровнях риска для потенциального причинения вреда. Однако эффективных законов, которые обязывали бы разработчиков делиться этими данными с правительствами и гражданским обществом, практически не существует.
Одной из ключевых претензий стало отсутствие надлежащей защиты для осведомителей в ИИ-отрасли. «Договор о неразглашении не позволяет нам открыто высказывать опасения по этому поводу никому, кроме самих компаний, которые могут игнорировать существующие проблемы», — жалуются авторы письма.
Традиционные механизмы защиты осведомителей оказываются неэффективными, поскольку ориентированы на противодействие незаконной деятельности. В то же время многие риски, связанные с ИИ, пока не имеют законодательного регулирования, что создает правовой вакуум.
В связи с этим авторы призвали ИИ-компании к ряду мер, включая отказ от соглашений о неразглашении, создание анонимных каналов для действующих и бывших сотрудников, невмешательство в публичные обсуждения при провале внутренних процессов и поддержку культуры открытой критики.
Под письмом подписались четверо анонимных сотрудников и семеро бывших, в том числе Дэниел Кокотайло, Джейкоб Хилтон, Уильям Сондерс, Кэрролл Уэйнрайт и Дэниел Зиглер. Также письмо поддержали Рамана Кумар из Google DeepMind, Нил Нанда из Anthropic и Google DeepMind, а также знаменитые ученые Джеффри Хинтон, Йошуа Бенджио и Стюарт Рассел.
В OpenAI заявили, что согласны с важностью дискуссии и продолжат взаимодействие с правительством, общественностью и другими заинтересованными сторонами. В компании есть анонимная горячая линия и Комитет по безопасности под руководством членов совета директоров.
Открытое письмо последовало после ряда скандалов вокруг OpenAI в последние месяцы. В мае, после волны критики, компания отменила требование к бывшим сотрудникам подписывать бессрочные соглашения о неразглашении для сохранения доли в компании. Ранее таким образом OpenAI пыталась заставить уволившихся сотрудников молчать об условиях работы.
За месяц до этого OpenAI распустила группу по изучению долгосрочных рисков ИИ после ухода ее руководителей — сооснователя Ильи Сутскевера и Яна Лейке. Лейке также резко раскритиковал корпорацию, заявив, что безопасность отошла на второй план из-за гонки за новыми продуктами.
После запуска новой ИИ-модели и обновленной версии ChatGPT с голосовым интерфейсом OpenAI отозвала один из голосовых ассистентов под названием Sky из-за сходства с голосом актрисы Скарлетт Йоханссон. Йоханссон обвинила компанию в копировании ее голоса без разрешения для использования в фильме «Она».
Таким образом, OpenAI оказалась в центре нарастающей полемики вокруг этических проблем разработки ИИ. Критики компании призывают к усилению регулирования и надзора в этой быстроразвивающейся отрасли.
* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.
Большой взрыв знаний каждый день в вашем телефоне