Важно знать про технологии deepfake и распознавать их

Важно знать про технологии deepfake и распознавать их

Нейронные сети позволяют в реальном времени создавать поддельные видео и голос, создавать любые лица. Эта технология называется deepfake и она уже используется злоумышленниками.

Проверьте себя: какие фотографии здесь не настоящие?

Настоящая тут только моя фотография в центре.

Самое частое применение - социальная инженерия, то есть вам могут набрать голосом вашего начальника или родителей и попросить что-то сделать. Также актуальная угроза - создание видеороликов или звукозаписи для дезинформации общественности. 

Как защищаться? 

Во-первых нужно знать что такие технологии вообще существуют. 

Во-вторых критически оценивать фотографии, видео и звукозаписи, которые вас предоставляют. Подделки очень сложно сегодня отличить от оригинала.

Я записал короткое видео и привел примеры дипфейков из портретов людей с сайта  https://thispersondoesnotexist.com/




Alt text
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.

Хакеры ненавидят этот канал!

Спойлер: мы раскрываем их любимые трюки

Расстройте их планы — подпишитесь

ksiva

Пусть будет утренний в честь того, что я его создал утром.