Иллюзия контроля рассеивается, когда мнимая угроза становится реальной.
Нейросеть DeepSeek всколыхнула Кремниевую долину, продемонстрировав, что мощные ИИ-модели можно создавать с минимальными затратами. Однако за этим успехом скрывается серьёзная проблема — уязвимость к взлому и манипуляциям.
Недавние исследования ( 1 , 2 , 3 ) показали, что модели DeepSeek более подвержены атакам, чем решения от крупных конкурентов, таких как OpenAI, Google и Microsoft. Это ставит под сомнение концепцию «демократизации» ИИ, ведь гиганты индустрии тратят миллиарды не только на производительность моделей, но и на их защиту. Компании, которые планируют внедрить DeepSeek в свои бизнес-процессы, должны учитывать эти риски.
Исследователи из LatticeFlow AI, специализирующиеся на проверке соответствия ИИ-моделей требованиям безопасности, установили , что версии R1 от DeepSeek оказались самыми уязвимыми среди ведущих моделей. При модификации открытых решений Meta (Llama) и Alibaba (Qwen) были нарушены встроенные защитные механизмы. В результате модели DeepSeek подвержены «перехвату целей» и утечке запросов, что позволяет хакерам заставить ИИ выдавать запрещённую информацию или игнорировать встроенные ограничения.
Генеральный директор LatticeFlow AI Петар Цанков предупреждает: если компании подключают ИИ к своим системам, они обычно добавляют собственные инструкции, например, скрывающие финансовые и прочие конфиденциальные данные. Однако модели DeepSeek могут не соблюдать эти ограничения при злонамеренной атаке, позволяя хакерам заполучить доступ к чувствительной информации.
Другие эксперты также находят уязвимости. По данным Adversa AI, модели DeepSeek легко поддаются взлому через джейлбрейк — их можно заставить выдавать инструкции по изготовлению оружия или взлому автомобилей. При этом OpenAI и Anthropic давно усилили защиту своих моделей, тогда как новичок в лице DeepSeek на данный момент остаётся крайне уязвимым.
Несмотря на привлекательную цену, использование DeepSeek требует дополнительных мер безопасности. Компании могут провести дообучение модели, что обойдётся в сотни тысяч долларов, или внедрить строгие фильтры, блокирующие утечки данных. Последний вариант дешевле, но тоже требует вложений.
Проблема безопасности ИИ-моделей сдерживает их массовое внедрение. По данным Evident Insights, несмотря на активное использование генеративного ИИ в 50 крупнейших банках, менее четверти из них смогли зафиксировать реальные выгоды в виде экономии средств или роста доходов. Опасения по поводу безопасности остаются ключевым фактором, тормозящим развитие отрасли.
DeepSeek доказал, что ИИ можно сделать дешевле, но дешевизна не всегда означает качество. Безопасность требует серьёзных инвестиций, и в этом вопросе технологические гиганты пока выигрывают. В условиях открытой конкуренции бизнес получает ровно то, за что платит.
И мы тоже не спим, чтобы держать вас в курсе всех угроз