Что важнее: персонализация или конфиденциальность? Похоже, компания что-то не договаривает.
В ответ на недовольство пользователей, возмущённых тем, что принципы конфиденциальности Slack позволяли использовать их данные для обучения ИИ, компания внесла изменения в свои правила. Ранее политика сервиса позволяла анализировать клиентские данные для обучения ИИ-моделей, если не было указано обратное. Однако едва ли внесённые изменения можно назвать направленными на защиту конфиденциальности пользователей.
Slack утверждает, что данные никогда не покидают платформу и не используются для обучения сторонних моделей. Модели машинного обучения, по заверения компании, используются исключительно внутри платформы, для улучшения работы с рекомендациями каналов, эмодзи и результатами поиска. При этом данные модели не получают доступ к содержимому личных сообщений, приватных и публичных каналов, что исключает возможность запоминания или воспроизведения данных клиентов.
Кроме того, для своего продукта Slack AI компания использует сторонние модели LLM, не сохраняя при этом данные клиентов. Модели размещаются на собственной инфраструктуре AWS, что обеспечивает дополнительную защиту данных пользователей.
Тем не менее, обновлённые принципы конфиденциальности подчёркивают, что данные клиентов анализируются исключительно для разработки негенеративных ИИ-моделей, таких как рекомендации эмодзи и каналов. Представитель Slack заявил, что политика компании не изменилась, а обновление было направлено только на улучшение ясности формулировок.
Тем не менее, использование данных по умолчанию вызывает вопросы у регуляторов. Для отключения этой функции владельцам рабочих пространств необходимо вручную отправлять запрос в службу поддержки Slack. Время обработки таких запросов не указано.
Компания объясняет, что использование данных помогает лучше понимать запросы пользователей, улучшать автозаполнение и предлагать подходящие эмодзи. Подобная персонализация возможна только при анализе взаимодействий пользователей с платформой.
Аарон Мауэр, один из инженеров Slack, заявил, что компания не обучает модели серьёзные LLM на данных клиентов. Однако в условиях использования сервиса указано, что такая возможность всё же существует.
Мэттью Ходжсон, генеральный директор мессенджера Element на протоколе Matrix, назвал использование личных данных клиентов для обучения ИИ «взрывающим мозг». Он отметил, что сама идея передачи незашифрованных данных в ИИ-модели с непрозрачной политикой вызывает тревогу.
Стоит отметить, что Slack не единственная компания, использующая данные клиентов для обучения ИИ-моделей. Так, социальная сеть Reddit недавно также объявила о сотрудничестве с OpenAI, предоставляя общедоступные посты с форума для использования ChatGPT. Тем не менее, пользователи защищённых корпоративных платформ, таких как Slack, могут быть крайне удивлены, узнав, что их данные используются для обучения глобальных моделей, если они не откажутся от этого самостоятельно.
Таким образом, данный мини-скандал со Slack наглядно демонстрирует необходимость современных пользователей внимательно следить за использованием своих данных, особенно на фоне растущего интереса к искусственному интеллекту в индустрии технологий и его повсеместного внедрения различными компаниями в абсолютно разных сферах и отраслях.
Живой, мертвый или в суперпозиции? Узнайте в нашем канале