Google хочет обучать свои ИИ-модели на данных пользователей

Google хочет обучать свои ИИ-модели на данных пользователей

Компания обновила политику конфиденциальности и расширила возможности использования публичной информации.

image

Google с каждым месяцев всё больше внимания уделяет развитию искусственного интеллекта. В обновлённой политике конфиденциальности от 1 июля 2023 года компания подчёркивает свою способность использовать данные пользователей для обучения своих ИИ-моделей.

Честно сказать, Google уже давно имеет право собирать данные своих пользователей и использовать их в «деловых целях». Это включает в себя, в том числе, «исследования и разработки», которые давно охватывают улучшение и создание таких продуктов, как Google Translate и т.п.

Однако теперь, в последнем обновлении своей политики, Google включает свои ИИ-модели в список того, для чего она может использовать собранные данные. Это также означает, что Google может использовать данные для обучения Bard и Cloud AI — продуктов, связанных с искусственным интеллектом.

Обновлённый пункт политики конфиденциальности теперь выглядит следующим образом: «Google использует информацию для улучшения своих сервисов и разработки новых продуктов, функций и технологий, которые приносят пользу пользователям и обществу. Например, мы используем общедоступную информацию для обучения ИИ-моделей Google и создания продуктов и функций, таких как Google Translate, Bard и Cloud AI».

В другом месте по документу Google также отмечает, что общедоступная информация может быть использована для обучения этих моделей: «Например, мы можем собирать информацию, которая доступна онлайн или из других публичных источников, чтобы помочь обучить ИИ-модели Google и создать продукты и функции, такие как Google Translate, Bard и Cloud AI. Или, если информация о вашем бизнесе появляется на каком-то сайте, мы можем индексировать её и отображать в сервисах Google».

Как бы то ни было, всё это не означает, что Google планирует использовать личные персональные данные своих пользователей для обучения ИИ-моделей. Речь идёт только о публичной информации. И это происходит в любом случае, как стало ясно с появлением ChatGPT и других ИИ-моделей. Однако новая политика Google делает ясным то, что компания намерена делать то же самое с данными своих собственных пользователей.

Прозрачности много не бывает, и это скорее хорошо, что компания решила официально закрепить изменения в своей политике конфиденциальности.

Теория струн? У нас целый оркестр научных фактов!

От классики до авангарда — наука во всех жанрах

Настройтесь на нашу волну — подпишитесь