Несмотря на сотрудничество Microsoft и OpenAI, технический гигант опасается утечек кода.
Cтарший инженер из офиса Microsoft попросил своих сотрудников не делиться с ChatGPT конфиденциальной информацией во время его использования в рабочих задачах. Об этом сообщило издание Insider.
На многочисленные вопросы сотрудников о возможности использования чат-бота в своей работе менеджеры рекомендовали им не передавать конфиденциальную информацию, в том числе код, а также напомнили им об ответственности за передачу таких данных. Аналогичное предупреждение получили работники Amazon.
Стоит отметить, что Microsoft подтвердил своё решение инвестировать $10 млрд. в компанию OpenAI, разработчика ChatGPT, а также планирует в ближайшие недели интегрировать ИИ-технологии OpenAI в свою поисковую систему Bing и продукты Office .
Профессор и директор лаборатории искусственного интеллекта в Университете Карнеги-Меллон Винсент Конитцер сказал, что сотрудничество Microsoft и OpenAI , возможно, вызовет конфликт интересов, поскольку Microsoft может извлечь выгоду из того, что OpenAI получит больше данных для обучения.
Также он отметил, что в случае утечки конфиденциальной информации будет очень сложно определить виноватого - ответственность будут нести сотрудники Microsoft за разглашение или OpenAI за неосторожное использование информации, или даже виноватыми могут оказаться все.
Условия обслуживания OpenAI разрешают Microsoft использовать все данные, созданные пользователями и чат-ботом ChatGPT. Компании договорились, что вся личная информация (PII) при этом удаляется. Однако, учитывая возросший интерес к ChatGPT, личную информацию сейчас невозможно идентифицировать и удалить. А корпоративная интеллектуальная собственность, скорее всего, не попадает под определение PII.
От классики до авангарда — наука во всех жанрах