Чатбот превратил семьянина в преступника.
Норвежца Арве Хьялмара Холмена шокировало сообщение от ChatGPT, в котором искусственный интеллект ошибочно обвинил его в преступлении в отношении своих троих детей. При этом в тексте фигурировали реальные сведения о месте его жительства и семье, что усилило драматизм ситуации.
Инцидент стал предметом правовой жалобы — правозащитная организация noyb подала заявление в норвежский орган по защите данных, утверждая, что OpenAI нарушила статью 5 Общего регламента по защите данных (GDPR).
Основной акцент жалобы сделан на том, что персональные данные, даже если они используются в генеративной модели, должны быть достоверными. В noyb отметили, что закон не делает исключений для нейросетей — ошибка в данных остаётся нарушением, независимо от технологических ограничений. Организация считает, что в случае Холмена OpenAI смешала вымышленные и подлинные элементы, что усугубляет характер нарушения.
Проблема обостряется тем, что компания не предоставляет пользователям возможности исправить ложную информацию. Ранее noyb уже указывала, что ChatGPT, в отличие от традиционных сервисов, не позволяет отредактировать неверные сведения. Вместо этого OpenAI лишь добавила в интерфейс чат-бота предупреждение о возможных ошибках, что, по мнению юристов, не освобождает компанию от ответственности.
Юристы добиваются от норвежского регулятора предписания, которое может обязать компанию изменить алгоритмы, ограничить обработку персональных данных Холмена или наложить штраф. Однако у OpenAI может быть аргумент в свою защиту — noyb признала, что в новых версиях ChatGPT, подключённых к интернету, ложные сведения о Холмене больше не генерируются. Это означает, что проблема, по крайней мере на уровне пользовательского интерфейса, устранена.
Тем не менее, жалоба указывает на то, что ссылка на оригинальную беседу по-прежнему доступна, а значит, ложные сведения могли быть сохранены внутри систем OpenAI и даже использованы для дообучения модели. Это, по мнению noyb, свидетельствует о продолжающемся нарушении, несмотря на внешние корректировки. Юристы подчёркивают, что удаление доступа к ложной информации не означает прекращения её обработки — компании не вправе «спрятать» ошибку, не устранив её в системе.
Решение по жалобе остаётся за норвежскими регуляторами, однако ситуация уже демонстрирует растущее давление на разработчиков ИИ в контексте точности и законности обработки персональных данных. Развитие генеративных моделей требует новых подходов к ответственности и соблюдению прав человека — даже если ложь исходит от машины, за неё кто-то должен отвечать.