Реалистичность дипфейков требует функции подтверждения достоверности ВКС-звонков

МОСКВА, 18 декабря. /ТАСС/. Возросшая реалистичность сгенерированных нейросетями видеозаписей с определенными людьми (дипфейков) требует разработки механизмов подтверждения достоверности видеоконференций для противодействия мошенникам. Такое мнение высказал директор Института системного программирования им. В. П. Иванникова РАН Арутюн Аветисян.
Ученый сообщил, что сегодня кто-то снова пытался от его имени звонить сотрудником в мошеннических целях. При этом реалистичность таких дипфейков настолько высока, что даже герой видеоподделок может сам поверить в их достоверность.
"Два года назад банкир в Гонконге <…> был вызван на "ВКС с лондонским офисом", со всеми поговорил, а потом подписал чек и 25 миллионов долларов ушли не туда, куда нужно. Это сплошь и рядом происходит. Мы живем в мире, где уже не можем доверять своим чувствам. Нужны регламенты: должен быть специальный человек, который подтверждает в определенных случаях, когда идет речь о десятках миллионов долларов, что это действительно ВКС", - сказал Аветисян, выступая на IV международной научно-практической конференции "Цифровые международные отношения 2025: Человек в фокусе цифрового развития".
Академик РАН также указал на важность разработки механизмов, позволяющих массовому потребителю видеоконтента в сети отличать реальные видео от сгенерированных искусственным интеллектом.
"Потому что мое отношение к нему, в зависимости от этого, будет совершенно разное. Я, как свободный человек, хочу смотреть то, что я хочу. При этом, как гражданин, я должен быть защищен от того, чтобы под видом настоящего видео мне давали генеративное", - заключил он, указав на важность маркирования сгенерированного нейросетями контента.


