SB-1047: неконтролируемому развитию ИИ пришёл конец

SB-1047: неконтролируемому развитию ИИ пришёл конец

32 из 33 сенаторов поддержали инициативу, несмотря на её спорный характер.

image

В штате Калифорния, США, сейчас активно обсуждается «Акт о безопасных и надёжных инновациях для передовых моделей искусственного интеллекта». Законопроект под кодовым номером SB-1047, о котором мы уже писали в начале июля, направлен на предотвращение потенциальных угроз, связанных с ИИ.

По состоянию на конец июля есть немало оснований полагать, что законопроект, по итогу, всё-таки будет принят, так как он уже прошёл Сенат штата с поддержкой в 32 из 33 голосов и вскоре будет рассматриваться Ассамблеей.

Законопроект требует, чтобы компании, разрабатывающие крупные модели ИИ с затратами на обучение от 100 миллионов долларов, внедряли специальные процедуры для предотвращения и реагирования на «инциденты безопасности». Под инцидентами понимаются действия ИИ, которые могут привести к «массовым жертвам или ущербу от 500 миллионов долларов», включая создание оружия массового поражения и кибератак.

Согласно законопроекту, авторы больших языковых моделей не понесут ответственности за вред, причинённый распространением публично доступной информации. Основное внимание уделено ИИ-системам, способным автономно генерировать новые угрозы безопасности без значительного вмешательства человека.

В числе сторонников законопроекта — ведущие учёные в области ИИ, включая Джеффри Хинтона и Йошуа Бенджио. Они считают, что подобное регулирование необходимо для предотвращения катастрофических последствий от использования передовых ИИ-систем. Бенджио отмечает, что системы ИИ могут представлять значительные риски для демократии и общественной безопасности, поэтому их необходимо тщательно тестировать и обеспечивать надлежащие меры безопасности.

Тем не менее, у законопроекта уже появились и свои критики. Так, например, техническая журналистка и исследовательница Нирит Вайсс-Блатт, утверждает, что законопроект основывается на преувеличенных страхах перед будущими системами ИИ. Вайсс-Блатт считает, что подобные инициативы могут замедлить инновации и помешать развитию открытого кода ИИ. «Если здесь и есть стремление к власти, то это не у систем ИИ, а у тех, кто предсказывает апокалипсис», — поясняет Вайсс-Блатт.

Многие эксперты считают, что регулирование должно фокусироваться на конкретных вредоносных применениях ИИ, а не на технологиях в целом. Эндрю Эн, основатель Google Brain, предложил альтернативные подходы, такие как запрет на создание дипфейков без согласия и стандартизацию методов идентификации сгенерированного контента.

С учётом того, что федеральные усилия по регулированию ИИ в США зашли в тупик, инициативы на уровне штатов, такие как SB-1047, приобретают особую значимость. То, как Калифорния справится с этим вопросом, может стать прецедентом для будущего регулирования ИИ не только в штате, но и по всей территории США. А там постепенно подтянутся и другие государства.

Квантовый кот Шрёдингера ищет хозяина!

Живой, мертвый или в суперпозиции? Узнайте в нашем канале

Откройте коробку любопытства — подпишитесь