«Привет, это я» – звонок, который может стоить вам состояния

leer en español

«Привет, это я» – звонок, который может стоить вам состояния

Всего один случайный аудиофрагмент становится ключом к бессрочному контролю над вашим голосом.

image

​Технологии искусственного интеллекта (ИИ) в области клонирования голоса достигли впечатляющего уровня, позволяя воспроизводить тембр, интонацию и манеру речи человека на основе всего нескольких секунд аудиозаписи. Однако отсутствие эффективных барьеров против несанкционированного использования этих технологий вызывает серьёзные опасения.​

Недавние исследования показали, что многие популярные сервисы синтеза речи позволяют создавать копии голосов без согласия их владельцев. Пользователю достаточно загрузить аудиозапись из открытых источников, и сервис автоматически создаст искусственную копию голоса. В большинстве случаев защита ограничивается простым подтверждением наличия разрешения, что легко обходится.​

Такие платформы, как ElevenLabs, Speechify, PlayHT и Lovo, полагаются на формальное подтверждение от пользователя. Resemble AI требует записи фразы в реальном времени, но этот барьер можно обойти с помощью заранее подготовленного аудиофайла. Единственным сервисом с относительно надёжной защитой является Descript, который требует произнести конкретное согласительное заявление, что сложнее подделать.​

Технологии голосового ИИ имеют множество легитимных применений, например, помощь людям с ограниченными возможностями или создание дубляжа. Однако потенциальные риски перевешивают плюсы: мошенничество, манипуляции общественным мнением и атаки на репутацию публичных личностей.​

Уже сейчас появляются тревожные сигналы. Федеральная торговая комиссия США предупреждает о мошеннических звонках, в которых преступники выдают себя за родственников жертвы и требуют деньги под предлогом экстренной ситуации. В музыкальной индустрии зафиксированы случаи создания треков с клонированными голосами без разрешения артистов, как это было в 2023 году с поддельной песней, якобы записанной Дрейком и The Weeknd.​

Несмотря на растущее число злоупотреблений, регулирование в этой сфере остаётся слабым. В условиях правового вакуума индустрия продолжает саморегулироваться, но эффективность этих мер вызывает сомнения.​

В глобальном масштабе проблема клонирования голоса становится всё более актуальной. В 2023 году компания OpenAI представила модель ИИ под названием Voice Engine, способную копировать голос любого человека, используя всего лишь 15-секундную запись его речи. Эта технология открывает новые возможности, но также вызывает опасения относительно её потенциального злоупотребления. ​

Кроме того, в 2024 году учёные разработали метод защиты от клонирования голоса под названием DeFake . Суть метода заключается в создании звуковых искажений, незаметных для человеческого слуха, но делающих запись непригодной для использования искусственным интеллектом. Подобные методы направлены на предотвращение злоупотребления чужим голосом и защиту потребителей от мошенничества. ​

В ответ на эти вызовы Европейский союз принял Регламент об искусственном интеллекте, направленный на создание общей нормативно-правовой базы для использования ИИ. Закон классифицирует приложения ИИ в зависимости от степени риска и устанавливает требования к системам с высокой степенью риска, включая обязательную оценку соответствия перед выпуском на рынок. ​

Несмотря на значительный прогресс в технологиях клонирования голоса, необходимо уделять пристальное внимание вопросам этики, безопасности и правового регулирования, чтобы предотвратить потенциальные злоупотребления и защитить права граждан.​

Ищем баги вместе! Но не те, что в продакшене...

Разбираем кейсы, делимся опытом, учимся на чужих ошибках

Зафиксируйте уязвимость своих знаний — подпишитесь!