Разработчики Bard не советуют пользователям дружить с генеративными нейросетями.
Интеграция генеративного ИИ в приложения для смартфонов, которыми мы пользуемся ежедневно, быстро набирает обороты. Это было предсказуемо - ChatGPT в прошлом году уже продемонстрировал огромный интерес пользователей к подобным технологиям. И вот теперь мы наблюдаем настоящий бум карманных ИИ-помощников.
Однако специалисты считают, что нам стоит сбавить темп - вместе с удобством приходят и серьезные риски для безопасности и конфиденциальности.
Кажется, в отношении чат-ботов на основе генеративного ИИ у нас у всех есть одна общая слабость. Мы можем проявлять осторожность при установке приложений, выдаче разрешений, выборе браузеров и обмене личными материалами в Facebook*. Но стоит только начать беседу с чат-ботом, как мы тут же забываем обо всех мерах предосторожности. Людям кажется, что они общаются с новым полезным другом, которому можно довериться и попросить о чем угодно.
Но это всего лишь интерфейс огромной вычислительной инфраструктуры, в конечном счете финансируемой за счет рекламы и торговли данными.
После анонса Bard от Google, который вскоре трансформируется в Gemini, и множества новых приложений, Google попросила всех пользователей Android и iPhone быть максимально осторожными.
"Пожалуйста, не упоминайте в беседах конфиденциальную информацию или факты, которыми вы не хотели бы делиться ни с кем из проверяющих записи диалогов. Или с Google, которая может использовать эти сведения для улучшения собственных инструментов, сервисов и технологий машинного обучения", - предупреждают разработчики.
К счастью, компания заверяет, что пока разговоры в Gemini Apps не будут использоваться для показа таргетированной рекламы, хотя в будущем все может измениться.
Реальная проблема заключается в том, что пользователи делятся весьма личной и конфиденциальной информацией с ИИ-помощником, помогающими писать деловые планы, презентации для продаж или даже шпаргалки для школы. Когда человек выходит из чата, вопросы, которые он задавал, и полученные ответы сохраняются во внутренних базах и потенциально могут быть просмотрены.
Такой масштаб сбора и использования данных вполне характерен для всего нового сектора генеративного ИИ в целом. Предстоит выработать подходы к оценке уровней безопасности и конфиденциальности, обеспечиваемых различными компаниями в этой сфере, такими как Google или OpenAI.
Важным различием станет то, где происходит обработка данных - на устройстве пользователя или в облаке. Apple, вероятно, задействует возможности своих приложений и сервисов, работающих на смартфонах, если это действительно окажется эффективным методом. Известно, что компания уже проводит эксперименты для сравнения производительности в обоих режимах. Google же, учитывая иную инфраструктуру и приоритеты, скорее всего, будет в большей степени полагаться на облачные вычисления.
Миллионы владельцев смартфонов Android и iPhone уже столкнулись с непростым выбором - использовать новые приложения с интегрированным искусственным интеллектом вроде Gemini или нет. Вскоре такой выбор предстоит сделать всем.
С одной стороны, мы не можем полностью обезопасить себя и свои данные, продолжая пользоваться всеми преимуществами ИИ. Хотя в последние годы был достигнут огромный прогресс в защите приватности при использовании интернета и мобильных приложений. С другой - возможности, которые открываются перед пользователями нейросетей, настолько заманчивы, что отказаться от них сложно. Предстоит тщательно взвесить, что для нас важнее.
Google говорит, что можно отключить долгосрочное хранение данных в настройках Gemini. Но даже в этом случае разговоры будут храниться в базе данных в течение 72 часов. Подобные проблемы мы видим и в других сервисах.
* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.
Гравитация научных фактов сильнее, чем вы думаете