Мораторий на развитие ИИ вызывает возмущение экспертов

Мораторий на развитие ИИ вызывает возмущение экспертов

Нереалистичные страхи отвлекают от актуальных проблем с ИИ.

image

Группа специалистов в области этики ИИ ответила на письмо Future of Life, подписанное на прошлой неделе около тысячей экспертов, включая Илона Маска, Стива Возняка и Эндрю Янга. Авторы этого ответа с сомнением отнеслись к предложению о шестимесячном "моратории" на развитие ИИ и обучение систем, превосходящих мощность GPT-4. Они осудили акцент письма на гипотетических угрозах будущего, связанных с развитием искусственного интеллекта, считая, что реальный вред может быть причинен использованием ИИ-технологий уже сегодня.

Тимнит Гебру, Эмили М. Бендер, Анджелина Макмиллан-Мейджор и Маргарет Митчелл - исследователи ИИ и эксперты по этике, ставшие известными благодаря статье "О рисках стохастических попугаев: могут ли языковые модели быть слишком большими?". В настоящее время они работают в DAIR Institute, исследовательском центре, задача которого - изучение, выявление и предотвращение вреда, который может нанести ИИ.

Авторы ответа на письмо Future of Life считают опасным подход "долгосрочной перспективы", придерживающийся критики ИИ, поскольку он игнорирует реальный вред, который искусственный интеллект может причинить сегодня. Эксперты по этике указывают на угрозу информационной экосистеме от взрыва синтетических медиа и на концентрацию власти в руках немногих людей благодаря ИИ.

«Нам нужно регулирование, обеспечивающее прозрачность. Необходимо, чтобы было ясно, когда мы сталкиваемся с синтетическими медиа, а также чтобы организации, создающие эти системы, документировали и раскрывали обучающие данные и архитектуры моделей. Ответственность за создание безопасных инструментов должна лежать на компаниях, создающих и развертывающих генеративные системы, что означает несение ответственности создателями этих систем за результаты, производимые их продуктами… Мы должны строить машины, которые работают на нас, а не "адаптировать" общество к тому, чтобы оно было машиночитаемым и записываемым».

TechCrunch в своем комментарии дополняет позицию авторов нового письма: «Опасения об апокалипсисе роботов в стиле Терминатора или Матрицы — это отвлекающий фактор, когда в то же время у нас есть информация о том, что такие компании, как Clearview AI, используются полицией для слежки и обвинения невинных людей».

Эксперты подчеркивают необходимость сосредоточиться на регулировании и прозрачности вместо приостановления развития ИИ. Они призывают к обязательной документации и раскрытию информации о данных и архитектуре моделей, а также к несению ответственности компаниями за создание безопасных и надежных генеративных систем. Таким образом, можно лучше контролировать влияние ИИ на общество и снизить риски, связанные с его использованием.

Красная или синяя таблетка?

В Матрице безопасности выбор очевиден

Выберите реальность — подпишитесь