МОСКВА, 6 июля. /ТАСС/. Эксперты выявили новый способ интернет-мошенничества, при котором злоумышленники используют фейковые видео с изображением знаменитостей для похищения денег. Об этом ТАСС сообщили в компании "Инфосистема Джет" (специализируется на защите информации).
Отмечается, что в последнее время в интернете появилось относительно новое явление deep fake - это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий deep learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. "Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету, что, в свою очередь, открывает широкие возможности для разного рода мошенников и провокаторов", - говорится в сообщении.
В пример приводится недавняя провокация в соцсети Facebook, где злоумышленники использовали образ актера и телеведущего Дмитрия Нагиева. В "своем" обращении фейк Нагиева обещал пользователям машину Audi A6 или 1,5 млн руб. за переход на сайт и следование инструкциям, через которые мошенники получают прибыль. "При нажатии пользователь попадает на портал со сгенерированным именем домена, сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических организаций. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей", - пояснили в "Инфосистеме Джет".
Специалист по нейронным сетям IT-компании "Инфосистемы Джет" Анна Олейникова добавила, что deep fake является крайне серьезной угрозой и спектр зловредного применения подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике. "Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта (ИИ) для противодействия таким угрозам информационной безопасности как сетевые атаки, спам, вирусы. Но такого рода deep fake - это первые случаи, когда злоумышленники сами вооружились технологиями ИИ". Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий", - заключила эксперт.