Google тихо отказалась от обещания не создавать опасный ИИ

leer en español

Google тихо отказалась от обещания не создавать опасный ИИ

Теперь компания готова разрабатывать технологии, способные убивать людей.

image

Google исключила из своих принципов использования искусственного интеллекта пункт, в котором содержалось обещание избегать применения технологии в потенциально вредных целях, включая разработку оружия.

Ранее в документах компании существовал раздел под названием «Применения ИИ, которые мы не будем развивать», где перечислялись «технологии, которые причиняют или могут причинить общий вред», включая оружие. Однако, как сообщает Bloomberg, этот текст больше не представлен на странице.

В ответ на запрос о комментарии Google сослалась на блог , опубликованный во вторник. В нем старший вице-президент Google Джеймс Маника и глава Google DeepMind Демис Хассабис заявили: «Мы верим, что демократии должны лидировать в разработке ИИ, опираясь на такие ценности, как свобода, равенство и уважение прав человека».

Google также прокомментировала изменения для TechCrunch, сославшись на новый блог об «ответственном ИИ». В нем говорится: «Мы верим, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создавать ИИ, который защищает людей, способствует глобальному развитию и поддерживает национальную безопасность».

Маргарет Митчелл, бывший сопредседатель команды Google по этике ИИ, а ныне главный специалист по этике в стартапе Hugging Face, считает, что это изменение может повлиять на работу компании. «Удаление этого пункта стирает достижения многих специалистов и активистов в сфере этики ИИ. Это также может означать, что Google, вероятно, теперь готова разрабатывать технологии, способные убивать людей», — заявила она.

Экс-глава направления «Ответственный ИИ» в Google Cloud Трейси Пиццо Фрей отметила, что принципы ИИ помогали её команде анализировать свою работу и повышать качество продуктов. «Ответственный ИИ создает доверие, а без доверия невозможно добиться успеха», — сказала она.

В последние годы Google подвергался критике за сотрудничество с военными США и Израиля, поставляя им облачные вычислительные мощности. Хотя компания заявляет, что ее технологии не используются для нанесения вреда, глава Пентагона по ИИ недавно сообщил TechCrunch, что модели некоторых компаний уже ускоряют процесс принятия решений в «цепочке уничтожения» американской армии.

Изменение политики Google совпадает с общим трендом среди крупных технологических компаний. В январе Meta* свернула часть инициатив по диверсификации персонала, отменив обязательные интервью для кандидатов из недостаточно представленных групп. В тот же период Amazon прекратил ряд программ по инклюзивности, назвав их устаревшими.

Внутри Google споры о балансе между этическими принципами и конкурентной гонкой ведутся давно. С момента выхода ChatGPT в 2022 году компания испытывает давление и стремится сохранить лидерство в ИИ. В 2023 году некоторые сотрудники выражали опасения, что ради конкуренции Google идет на компромиссы в этических вопросах.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.

Инновации PT Application Inspector для безопасной разработки в IDE

6 февраля в 14:00 — не пропустите!

Регистрация открыта

Реклама. Рекламодатель АО «Позитив Текнолоджиз», ИНН 7718668887, 18+