LinkedIn: от профессиональной сети к ИИ-инкубатору

LinkedIn: от профессиональной сети к ИИ-инкубатору

Ваша карьера стала учебником для машин.

image

LinkedIn начал использовать контент пользователей для обучения своих моделей искусственного интеллекта без разрешения, что вызвало волну возмущения среди пользователей.

Согласно обновленной политике конфиденциальности, LinkedIn собирает публикации пользователей для тренировки генеративных функций ИИ. Также в политику конфиденциальности добавили раздел, поясняющий автоматический сбор данных. Это означает, что LinkedIn начал собирать контент для обучения моделей до официального объявления и обновления политики конфиденциальности.

В документе сообщается, что ИИ может использовать личную информацию в целях создания рекомендаций, помогающих с написанием текстов и постов. Чтобы отказаться от этого, пользователям придется отключить соответствующую настройку. LinkedIn также будет собирать данные о действиях на платформе, частоте использования, языковых предпочтениях и отзывах.

Пользователи из ЕС, Исландии, Норвегии, Лихтенштейна и Швейцарии могут выдохнуть — их данные не используются для обучения ИИ и не будут использованы в ближайшее время.

LinkedIn утверждает, что стремится минимизировать использование личных данных в наборах для обучения, применяя технологии защиты конфиденциальности для удаления или редактирования такой информации. Однако, система предупреждает, что может случайно предоставить персональные данные других людей при определённых запросах. Например, если пользователь использует генеративный ИИ для написания статьи, упомянув в качестве примера своих наставников, их имена могут быть включены в итоговый текст, который пользователь может отредактировать перед публикацией.

Возмущение пользователей было ожидаемым. На платформе уже появились публикации с обвинениями в нарушении доверия и инструкциями по отключению сбора данных. К счастью, это несложно сделать: нужно зайти в профиль, выбрать «Настройки», затем «Конфиденциальность данных» и отключить опцию, связанную с улучшением ИИ. LinkedIn также опубликовала статью о том, как отключить использование данных для обучения ИИ. В настройках профиля появилась опция «Data for Generative AI Improvement», которую можно выключить, чтобы остановить передачу данных для обучения моделей.

Правозащитная организация Open Rights Group (ORG) призвала британский регулятор ICO расследовать действия LinkedIn и других соцсетей, которые по умолчанию используют пользовательские данные для обучения ИИ. Представитель ORG отметил, что существующая модель отказа от использования данных недостаточна для защиты прав пользователей, так как невозможно отслеживать все компании, которые собирают и используют пользовательскую информацию. По мнению ORG, необходима система, основанная на явном согласии, что соответствует как юридическим требованиям, так и здравому смыслу.

Между тем, Комиссия по защите данных Ирландии (DPC), ответственная за мониторинг соблюдения правил GDPR в ЕС, заявила, что LinkedIn уведомила регулятор об изменениях в политике конфиденциальности и добавлении возможности отказа для пользователей, которые не хотят, чтобы их данные использовались для обучения ИИ.

Использование подхода «сначала собираем данные, потом разберёмся с исками» стало распространённым среди крупных технологических компаний. Прощения никто не просит и разрешения тоже не спрашивает. Вероятно, LinkedIn понимал, что его действия вызовут негативную реакцию, и удивляет, что компания всё же выбрала такой путь.

Рост потребности в данных для обучения генеративных ИИ-моделей побудил многие платформы пересматривать или перепрофилировать свой контент. Некоторые из них даже начали монетизировать пользовательские данные — такие сети, как Reddit, Stack Overflow и Tumblr, лицензируют свои данные для разработчиков ИИ.

Хакеры ненавидят этот канал!

Спойлер: мы раскрываем их любимые трюки

Расстройте их планы — подпишитесь