Какой путь выбрала для себя компания и чего хочет от правительства?
В США разгорается новый этап дискуссии о регулировании искусственного интеллекта. Одним из первых указов после возвращения в Белый дом Дональд Трамп постановил разработать “AI Action Plan” - национальный план действий по развитию ИИ, призвав все заинтересованные стороны представить свое видение будущего технологии. Недавно, последовав примеру OpenAI, на это обращение откликнулась компания Google.
По мнению представителей, властям США пора активнее отстаивать американские ценности на мировой арене и способствовать развитию инноваций. В ответном документе отмечается, что регуляторы слишком увлеклись поиском рисков и упустили из виду, как чрезмерные запреты подрывают технологическое развитие и научное лидерство страны.
В первую очередь технологический гигант делает акцент на том, что государству следует смягчить ограничения по части авторских прав при обучении ИИ-моделей. Для развития технологий и науки разработчикам якобы необходим свободный доступ к общедоступным данным, даже если они защищены копирайтом. Эту позицию разделяет и OpenAI – обе компании стремятся закрепить такое право на законодательном уровне.
В Google утверждают, что подобный подход не причинит существенного вреда правообладателям. При этом корпорации смогут избежать затяжных переговоров с владельцами контента во время создания моделей и проведения исследований.
И это совсем не новая идея - компания продолжает гнуть свою линию даже после серии судебных разбирательств. Google, предположительно использовавшая защищенные авторским правом материалы для обучения нескольких своих моделей, и сейчас сталкивается с исками от владельцев контента. Они заявляют, что компания не получила разрешения и не заплатила за использование данных. Американским судам еще предстоит решить, защищает ли принцип добросовестного использования разработчиков ИИ от подобных претензий.
В документе также содержится критика экспортных ограничений, введенных администрацией Байдена. С точки зрения Google, эти меры создают чрезмерную нагрузку на американских поставщиков облачных сервисов и могут ослабить экономические позиции страны. Интересно, что конкуренты придерживаются иного мнения: к примеру, в Microsoft заявили о полной готовности соблюдать новые требования.
При этом существующие правила экспорта, призванные ограничить доступ определенных стран к передовым ИИ-чипам, содержат исключения для проверенных компаний, закупающих процессоры крупными партиями.
Есть у Google мнение и по другим вопросам. Компания настаивает на необходимости стабильного финансирования фундаментальных исследований в США, выступая против недавних попыток сократить научные гранты. В качестве конкретных шагов предлагается открыть разработчикам доступ к государственным базам данных для обучения коммерческих нейросетей. Также команда подчеркивает, насколько важно поддерживать значимые проекты на первых этапах и обеспечивать свободный доступ к вычислительным мощностям для научных центров.
Отдельное беспокойство у технологического гиганта вызывает сложившаяся в США система регулирования, где каждый штат принимает собственные законы об искусственном интеллекте. Специалисты призывают создать единое федеральное законодательство для комплексного решения вопросов безопасности и защиты персональных данных. И правда, масштаб проблемы иллюстрируют цифры: только за первые два месяца 2025 года законодатели внесли 781 законопроект, связанный с ИИ.
Предостерегают и от излишнего регулирования искусственного интеллекта, особенно в вопросах ответственности за его применение. Якобы часто разработчики часто не могут отследить или повлиять на то, как используются их модели, поэтому наказывать их за некоторые вещи - довольно несправедливо.
Эту линию в Google отстаивают последовательно. Компания активно противодействовала принятию закона SB 1047 в Калифорнии, который детально прописывал меры предосторожности при выпуске ИИ-моделей и случаи, когда разработчики несут ответственность за причиненный ими ущерб. К счастью для представителей, закон в итоге не прошел.
А еще резкой критике подверглись обсуждаемые в Евросоюзе требования о прозрачности работы ИИ-систем. В компании считают эти меры чрезмерными и призывают американские власти противостоять правилам, которые вынуждают раскрывать технологические секреты, облегчают копирование продуктов конкурентами или помогают злоумышленникам находить уязвимости в защите алгоритмов.
Однако общемировой тренд движется в противоположном направлении. Все больше стран и регионов требуют от разработчиков ИИ большей открытости. Так, в Калифорнии закон AB 2013 обязывает компании публично рассказывать, какие данные они использовали для обучения своих систем. А готовящийся к вступлению в силу европейский Закон об ИИ пойдет еще дальше: разработчикам придется в деталях объяснять пользователям принципы работы моделей, существующие ограничения и возможные риски.