Случилось то, чего многие боялись: в ChatGPT произошла утечка пользовательских данных

Случилось то, чего многие боялись: в ChatGPT произошла утечка пользовательских данных

Истории чужих диалогов с чат-ботом внезапно стали доступны многим пользователям нейросети.

image

В начале февраля мы писали о том, как многие эксперты по информационной безопасности с большим подозрением относились к набирающему обороты нейросетевому инструменту ChatGPT. Специалисты были уверены, что стоит лишь разработчикам допустить небольшую ошибку, гигабайты конфиденциальных пользовательских данных попадут в открытый доступ. И кто знает, к чему это может привести.

ChatGPT устроен таким образом, что сохраняет и отображает в истории все прошлые разговоры пользователя. Это сделано как для банального удобства, так и для того, чтобы ChatGPT учился на этих данных. Вчера, 22 марта, представитель OpenAI официально подтвердил, что в начале этой недели из-за сбоя в параметрах конфиденциальности ChatGPT ненадолго показал чужие истории бесед случайных пользователей платформы.

Пост в Twitter одного из пользователей, затронутых ошибкой

В понедельник, 20 марта, некоторые пользователи ChatGPT заметили, что в их истории диалогов отображаются совершенно незнакомые беседы. Как будто это совсем чужие переписки с нейросетью. Какое-то время представители OpenAI не комментировали ситуацию, но вчера Сэм Альтман, генеральный директор OpenAI, без особых подробностей сообщил в Twitter следующее: «Небольшой процент пользователей смог видеть заголовки истории разговоров других пользователей». Судя по всему, полноценного доступа к чужим беседам у пользователей не было, и дело ограничилось лишь заголовками. Однако приятного в этой ситуации всё равно крайне мало.

Пост в Twitter генерального директора OpenAI

Хотя некоторые люди опасались, что неразбериха с конфиденциальностью была вызвана взломом чат-бота, Альтман обвинил в этом программную ошибку в неназванной библиотеке с открытым исходным кодом. Вскоре OpenAI выпустила патч, исправляющий ситуацию. Однако до сих пор нет полной уверенности, что пользовательские диалоги не были выгружены из системы.

Компания планирует предоставить более подробную информацию об инциденте чуть позже, после завершения внутреннего расследования. Между тем, боковая панель с историей диалогов была недоступна или доступна с переменным успехом, начиная с понедельника и вплоть до вечера среды. Сейчас история переписок с ботом отображается корректно, хоть и зачастую после длительной загрузки.

Остаётся неясным, раскрыла ли вышеупомянутая ошибка чью-либо конфиденциальную личную информацию. По сообщениям пользователей, которые видели у себя чужие чаты, открыть их не представлялось возможным из-за возникающей ошибки. Просочившиеся заголовки также не содержали очевидных указаний на то, кому принадлежал диалог.

Может, всё обошлось, а может — злоумышленники успели воспользоваться ситуацией и выгрузить чужую историю чатов. Как бы то ни было, за ситуацией стоит наблюдать. Возможно, это прозвучит банально, но в диалогах с ChatGPT даже в шуточной форме не стоит указывать свои или чужие личные данные, будь то имена/фамилии людей, номера телефонов, почтовые адреса, реквизиты банковских карт и т.п. Кто знает, какая утечка у OpenAI может произойти в следующий раз, поэтому, стоит обезопасить себя в этом вопросе заранее.

Тем временем глава OpenAI сообщил, что компании предстоит устранить ещё одну очевидную ошибку, которая привела к утечке адресов электронной почты пользователей ChatGPT Plus. Выходит, даже данные своих «инвесторов» компания не смогла уберечь от возможной утечки, а что уж говорить про обычных пользователей…

Ученые доказали: чтение нашего канала продлевает жизнь!

Ладно, не доказали. Но мы работаем над этим

Поучаствуйте в эксперименте — подпишитесь