ТАСС объясняет
7 октября, 17:15
Статья

Смотри в оба: как не стать жертвой дезинформации и уметь определять дипфейки

Jens Schlueter/ Getty Images

Скорость распространения информации сегодня составляет считаные минуты, а охваты аудитории могут исчисляться миллионами людей. При этом огромное значение принимает "информационная гигиена" — ведь зачастую распространяются сведения недостоверные, а порой и специально сфабрикованные. Одним из примеров подобного рода контента стали так называемые дипфейки — поддельные видео и аудиоролики, выдаваемые за подлинные. 

Эксперты рассказали ТАСС, как распознать подобную продукцию и не стать жертвой дезинформации. 

Дипфейк (deepfake, от deep "глубокая" + fake "подделка" — англ.) — созданное с помощью искусственного интеллекта на основе уже существующих аудио- и визуальных образцов изображение, видео или (реже) голос. Причины для создания подобных творений могут быть самые разные: от безобидных дружеских розыгрышей до совершения с их помощью преступлений. Но специалисты в области технологий выделяют две главные: развлекательную и дезинформирующую.

Знакомые все лица

Дипфейки могут создаваться на совершенно законных основаниях. Например, несколько лет назад "Мегафон" использовал в своей рекламе дипфейк Брюса Уиллиса, а Сбер — Леонида Куравлева в роли Жоржа Милославского. В обоих случаях возможность использования знаковых образов была согласована с самими артистами.

Дипфейки используют для создания мемов с фрагментами кинофильмов или розыгрышей с известными личностями — говорят эксперты агентства видеоновостей Ruptly. Эти цели относительно безобидны, хотя способы создания могут оказаться сомнительными: незаконное использование фотографий человека, нарушение личных неимущественных и авторских прав и другие подобные случаи. 

В качестве примера эксперты Ruptly приводят следующий случай: мужчина решил пошутить над пользователями сети TikTok и провел лайв-трансляцию в образе Илона Маска, используя дипфейк-технологии. "На стриме люди задавали ему свои вопросы, порой юмористические, порой — довольно серьезные, касающиеся работы миллиардера, а тот, в свою очередь, на них отвечал и постоянно шутил", — отмечают в агентстве. Позже фейковый аккаунт был заблокирован платформой, однако мужчина перебрался в Twitter (сейчас — "X"), где саморазоблачился, подтверждая, что использовал дипфейк.

"Подобные технологии находят и позитивное применение при создании контента в развлекательной индустрии. Технология позволяет создавать реалистичные визуальные эффекты, а это открывает новые возможности для таких отраслей, как кинематограф или видеоигры. Например, в фильмах можно использовать дипфейки для создания сложных графических сцен, а в видеоиграх — для отрисовки более реалистичных персонажей и улучшения игрового опыта, — рассказал ТАСС директор по развитию услуг IT-компании Selectel Александр Тугов. — Однако важно помнить, что использование дипфейков в развлекательной индустрии должно осуществляться с соблюдением этических норм и с учетом международного законодательства". Прецеденты, когда за незаконное создание дипфейков наказывали, в России есть. Так, в декабре 2023 года арбитражный суд Москвы обязал ООО "Бизнес-аналитика" выплатить компенсацию в 500 тыс. рублей компании "Рефейс технолоджис" за использование видеоролика, созданного с применением дипфейк-технологии, в котором фигурировал образ Киану Ривза.  

Оружие массового поражения

К сожалению, сегодня дипфейки гораздо чаще используют для корыстных или противозаконных занятий. "Технология активно используется мошенниками. Для создания дипфейков злоумышленники взламывают чужие аккаунты в социальных сетях или мессенджерах с целью использовать полученные фото, видео и голосовые записи. Затем созданный дипфейк злоумышленники рассылают друзьям и родственникам человека, обычно изображая его в ситуации, где он рассказывает о якобы возникшей проблеме и просит перевести деньги на определенный счет", — рассказала ТАСС Оксана Кулакова, старший менеджер практики "Государственные и социальные инициативы"‎ компании "Рексофт Консалтинг". Это создает значительную угрозу для отдельных граждан, которые могут стать жертвами финансовых махинаций.

Одна из нашумевших историй на эту тему произошла недавно с народной артисткой России певицей Ларисой Долиной, которую под предлогом сохранения денег уговорили перевести на якобы безопасные счета и передать курьеру личные сбережения и средства от продажи квартиры. 

"Помимо этого, злоумышленники могут генерировать компрометирующие материалы — оскорбительные высказывания или откровенные сцены. Такие дипфейки могут использоваться для шантажа, заставляя жертву выполнять требования мошенников под угрозой публикации порочащего контента", — напомнил еще об одной области преступлений с использованием искусственного интеллекта (ИИ) Александр Тугов. 

"Если ранее самым важным в мире новостей была скорость их распространения и подачи, то сейчас на первый план выходит достоверность", — говорит руководитель агентства Ruptly Динара Токтосунова. Речь идет о дипфейках, направленных не на конкретного человека, а на массовые аудитории для общественно-политических манипуляций, подрыва репутации публичных лиц и компаний, а также для создания фальшивых новостей. 

Специалисты из Ruptly приводят несколько примеров разоблачения дипфейков в отношении публичных личностей: так, директор департамента информации и печати МИД России Мария Захарова в свое время стала невольной героиней подобного ролика, в котором "заявляла" о готовности России передать Запорожскую АЭС Украине в обмен на уход ВСУ из Курской области. А в преддверии 1 сентября в сети появился новый дипфейк с врио губернатора Курской области Алексеем Смирновым, в котором он якобы сообщил жителям региона об отмене начала учебного года и призвал их покинуть регион.

Для создания ролика использовалось реально существующее видео Смирнова от 17 мая 2024 года. В видео, по сути, заменили только мимику и речь. И это не первый случай, политик ранее уже был жертвой злоумышленников, пытавшихся воспользоваться его личностью для дезинформации граждан области.

Противоядие

Эксперты отмечают, что фейки становятся все более правдоподобными и труднодоступными для выявления без специальной аппаратуры. По словам Динары Токтосуновой, здесь тоже главным инструментом выступает ИИ. Благодаря ему срок проверки видео сокращается в десятки раз, например, в отличие от человека нейросеть может за одну секунду дать ответ, есть ли в видео какие-либо аномалии (скорость, бэкграунд, склейка). "Сервисы по обнаружению дипфейков обычно используют комбинацию алгоритмов глубинного обучения, инструментов анализа изображений, видео и аудио, а также технологии блокчейна или цифровых водяных знаков. Все это помогает обнаруживать несоответствия, которые не видны невооруженным глазом", — пояснил ТАСС Александр Тугов. А Оксана Кулакова из "Рексофт" напомнила, что в России в рамках программы "‎Цифровая экономика"‎ разрабатываются системы интеллектуального анализа видеопотока, что будет способствовать выявлению дипфейков.

Однако и сейчас определить подделку бывает возможно и, что называется, на глаз. В истории с "Илоном Маском" созданный дипфейк был крайне достоверным, а актерские способности шутника — высочайшего уровня, но наиболее внимательные пользователи отметили странности с акцентом и голосом, а также нетипичную для американского миллиардера прическу. Впоследствии и сам автор розыгрыша выложил несколько юмористических видео, на одном из которых отчетливо виден "косяк" ИИ — бровь "Илона" переместилась на висок. А в ролике с Алексеем Смирновым эксперты Ruptly обратили внимание на слишком частое и неестественное моргание "спикера". В какие-то моменты оно даже кажется перемотанным назад. Кроме того, движение губ не всегда совпадало с произносимыми фразами, а в одном месте была даже заметна склейка двух похожих фрагментов, что используется в случаях, когда необходимо вырезать моменты, где герой видео оговорился или задумался. "Скорее всего, искусственный интеллект не смог создать плавный переход между фразами, поэтому был применен подобный способ "продолжить" ролик", — делают вывод аналитики.

Внимание на детали

Дипфейки ставят перед пользователями сетей две проблемы. Первая — как не поверить фальшивке. Вторая — как самому не стать "героем" подобных роликов. 

Чтобы избежать негативного воздействия фейков на свою психику (а именно для этого они и запускаются), специалисты рекомендуют внимательно присматриваться к деталям, особенно в тех роликах, герои которых, как вам кажется, ведут себя не так, как от них ожидается.

"Если вам пишут или звонят, выйдите на связь сами через доверенный контакт. Например, позвоните родственнику или коллеге, чтобы перепроверить информацию, — советует Александр Тугов. — Если вам пишет кто-то, с кем вы не имеете личных связей, действуйте с осторожностью — существует вероятность, что это мошенничество". 

Если же речь идет о публичных персонах или ответственных лицах, которые выступают с неожиданными заявлениями или тем более призывами, то в этом случае в первую очередь стоит проверить их официальные страницы — есть ли на них такие же ролики. "Будьте скептичны к необычным и сенсационным новостям. Если что-то кажется слишком хорошим или плохим, чтобы быть правдой, это может быть дипфейком", — рекомендует Оксана Кулакова, добавляя, что при столкновении с фальшивкой нужно сообщить об этом соответствующим органам или операторам платформ, на которых она была обнаружена.

При рассмотрении же самого ролика необходимо обращать внимание на детали. Например, совпадает ли движение губ с речью? В дипфейках довольно часто можно заметить рассинхрон или полное непопадание в "липсинг". Посмотреть — моргает ли человек на видео и естественны ли эти моргания. У ИИ до сих пор часто встречаются проблемы с морганием, так что это может стать одним из ключевых доказательств, что перед вами дипфейк. В некоторых дипфейках могут быть плохо прорисованы особенности лица — волосы, борода или родинки, зубы и даже блики на очках. Время от времени (как в истории с фальшивым Маском) черты могут "улетать" в положение, которое анатомически невозможно. Наконец, смотрите на качество самой картинки. По словам сотрудников Ruptly, этот пункт помогает не во всех кейсах с дипфейками, особенно если вы столкнулись с работой профессионала, но в некоторых случаях может стать одним из подтверждений недостоверного контента.

Что же касается вопроса, как не стать "героем" фейков, то здесь один из главных способов обезопасить себя — делать доступ к личным данным максимально затрудненным для посторонних. Необходимо регулярно менять пароли и использовать мультифакторную аутентификацию для защиты своих аккаунтов.

И конечно, желательно ограничить собственную публичность в соцсетях. Стараться не загружать свои фото и видео, особенно в открытый доступ. Чтобы у злоумышленников получился достоверный дипфейк, им нужно достаточно много контента. Именно по этой причине дипфейки с актерами и другими публичными личностями получаются настолько правдоподобными. Чем меньше фотографий и видео с собой вы публикуете, тем меньше шанс, что с вами выйдет убедительный дипфейк.

Евгений Мазин