Всего один случайный аудиофрагмент становится ключом к бессрочному контролю над вашим голосом.
Технологии искусственного интеллекта (ИИ) в области клонирования голоса достигли впечатляющего уровня, позволяя воспроизводить тембр, интонацию и манеру речи человека на основе всего нескольких секунд аудиозаписи. Однако отсутствие эффективных барьеров против несанкционированного использования этих технологий вызывает серьёзные опасения.
Недавние исследования показали, что многие популярные сервисы синтеза речи позволяют создавать копии голосов без согласия их владельцев. Пользователю достаточно загрузить аудиозапись из открытых источников, и сервис автоматически создаст искусственную копию голоса. В большинстве случаев защита ограничивается простым подтверждением наличия разрешения, что легко обходится.
Такие платформы, как ElevenLabs, Speechify, PlayHT и Lovo, полагаются на формальное подтверждение от пользователя. Resemble AI требует записи фразы в реальном времени, но этот барьер можно обойти с помощью заранее подготовленного аудиофайла. Единственным сервисом с относительно надёжной защитой является Descript, который требует произнести конкретное согласительное заявление, что сложнее подделать.
Технологии голосового ИИ имеют множество легитимных применений, например, помощь людям с ограниченными возможностями или создание дубляжа. Однако потенциальные риски перевешивают плюсы: мошенничество, манипуляции общественным мнением и атаки на репутацию публичных личностей.
Уже сейчас появляются тревожные сигналы. Федеральная торговая комиссия США предупреждает о мошеннических звонках, в которых преступники выдают себя за родственников жертвы и требуют деньги под предлогом экстренной ситуации. В музыкальной индустрии зафиксированы случаи создания треков с клонированными голосами без разрешения артистов, как это было в 2023 году с поддельной песней, якобы записанной Дрейком и The Weeknd.
Несмотря на растущее число злоупотреблений, регулирование в этой сфере остаётся слабым. В условиях правового вакуума индустрия продолжает саморегулироваться, но эффективность этих мер вызывает сомнения.
В глобальном масштабе проблема клонирования голоса становится всё более актуальной. В 2023 году компания OpenAI представила модель ИИ под названием Voice Engine, способную копировать голос любого человека, используя всего лишь 15-секундную запись его речи. Эта технология открывает новые возможности, но также вызывает опасения относительно её потенциального злоупотребления.
Кроме того, в 2024 году учёные разработали метод защиты от клонирования голоса под названием DeFake . Суть метода заключается в создании звуковых искажений, незаметных для человеческого слуха, но делающих запись непригодной для использования искусственным интеллектом. Подобные методы направлены на предотвращение злоупотребления чужим голосом и защиту потребителей от мошенничества.
В ответ на эти вызовы Европейский союз принял Регламент об искусственном интеллекте, направленный на создание общей нормативно-правовой базы для использования ИИ. Закон классифицирует приложения ИИ в зависимости от степени риска и устанавливает требования к системам с высокой степенью риска, включая обязательную оценку соответствия перед выпуском на рынок.
Несмотря на значительный прогресс в технологиях клонирования голоса, необходимо уделять пристальное внимание вопросам этики, безопасности и правового регулирования, чтобы предотвратить потенциальные злоупотребления и защитить права граждан.
Разбираем кейсы, делимся опытом, учимся на чужих ошибках