Apple научила свою технику с высокой точностью подделывать человеческий голос

Apple научила свою технику с высокой точностью подделывать человеческий голос

Смогут ли предприимчивые мошенники злоупотребить новой функцией?

image

Вчера Apple выпустила краткий обзор новых функций для iOS 17, которые появятся позже в этом году. Внимание моментально приковывают две интересные функции под названием «Live Speech» и «Personal Voice».

«Live Speech» («Живая речь») — функция, направленная на повышение инклюзивности и облегчение доступа к полноценным голосовым вызовам людям, которые имеют определённые проблемы с речевым аппаратом, вызванные теми или иными заболеваниями. Live Speech позволяет во время, к примеру, рабочего созвона или личного разговора по FaceTime, вписать текст с клавиатуры в специальное поле, и он будет озвучен искусственным синтезатором речи, который громко и чётко будет передан остальным участникам разговора.

«Personal Voice» («Персональный голос») — функция, позволяющая человеку оцифровать собственный голос, и использовать его в связке с «Live Speech», чтобы на тех же аудиосозвонах говорить с другими людьми своим голосом, не произнося при этом не слова. Функция также направлена на людей, которые со временем могут потерять свой собственный голос.

«Для пользователей, которым грозит скорая потеря речи в связи с диагностированным БАС (боковой амиотрофический склероз) или другими заболеваниями, которые могут постепенно влиять на способность говорить, "Персональный голос" — это простой и безопасный способ создать искусственный голос, похожий на их собственный», — заявляют в Купертино

По информации Apple, достаточно будет в течение 15 минут зачитывать вслух текстовые подсказки на iPhone или iPad, чтобы благодаря машинному обучению система смогла создать голос, максимально похожий на реальный голос человека.

Бесспорно, стремления Apple сделать жизнь своих пользователей комфортнее похвальны, однако подобная функция, по умолчанию встроенная в обычный iPhone, наверняка откроет мошенникам новые горизонты для взаимодействия с родственниками и знакомыми потенциальных жертв.

В начале апреля мы сообщали, что стремительное развитие нейросетей уже привело к участившимся мошенническим звонкам с фальшивыми голосами. Причём подобные истории зачастую шокируют своими подробностями .

Не до конца понятно, можно ли будет использовать новые функции в обычных телефонных разговорах по сотовой сети или воспроизводить написанный текст без звонков в принципе, но если данная система имеет слабые места, злоумышленники со временем обязательно выявят их и смогут использовать в продвинутых и крайне реалистичных схемах социальной инженерии.

На прошлой неделе мы уже писали о мерах предосторожности, чтобы не стать жертвой телефонного мошенничества с подделкой голоса. Рекомендуем повторно ознакомиться с информацией, а также сохранять бдительность даже в общении с близкими людьми. Современные технологии куда коварнее, чем кажутся.

Наш контент расширяется быстрее Вселенной!

Большой взрыв знаний каждый день в вашем телефоне

Подпишитесь, пока мы не вышли за горизонт событий