Сотрудников Microsoft призвали не делиться конфиденциальной информацией с ChatGPT

Сотрудников Microsoft призвали не делиться конфиденциальной информацией с ChatGPT

Несмотря на сотрудничество Microsoft и OpenAI, технический гигант опасается утечек кода.

image

Cтарший инженер из офиса Microsoft попросил своих сотрудников не делиться с ChatGPT конфиденциальной информацией во время его использования в рабочих задачах. Об этом сообщило издание Insider.

На многочисленные вопросы сотрудников о возможности использования чат-бота в своей работе менеджеры рекомендовали им не передавать конфиденциальную информацию, в том числе код, а также напомнили им об ответственности за передачу таких данных. Аналогичное предупреждение получили работники Amazon.

Стоит отметить, что Microsoft подтвердил своё решение инвестировать $10 млрд. в компанию OpenAI, разработчика ChatGPT, а также планирует в ближайшие недели интегрировать ИИ-технологии OpenAI в свою поисковую систему Bing и продукты Office .

Профессор и директор лаборатории искусственного интеллекта в Университете Карнеги-Меллон Винсент Конитцер сказал, что сотрудничество Microsoft и OpenAI , возможно, вызовет конфликт интересов, поскольку Microsoft может извлечь выгоду из того, что OpenAI получит больше данных для обучения.

Также он отметил, что в случае утечки конфиденциальной информации будет очень сложно определить виноватого - ответственность будут нести сотрудники Microsoft за разглашение или OpenAI за неосторожное использование информации, или даже виноватыми могут оказаться все.

Условия обслуживания OpenAI разрешают Microsoft использовать все данные, созданные пользователями и чат-ботом ChatGPT. Компании договорились, что вся личная информация (PII) при этом удаляется. Однако, учитывая возросший интерес к ChatGPT, личную информацию сейчас невозможно идентифицировать и удалить. А корпоративная интеллектуальная собственность, скорее всего, не попадает под определение PII.

Теория струн? У нас целый оркестр научных фактов!

От классики до авангарда — наука во всех жанрах

Настройтесь на нашу волну — подпишитесь