28 ИЮН, 16:38

Исследование показало, что 10% фейков в интернете создаются при помощи ИИ

Гендиректор АНО "Диалог" и АНО "Диалог регионы" Владимир Табак отметил, что с 2022 года по 2023 год количество такого контента выросло в 17 раз

САНКТ-ПЕТЕРБУРГ, 28 июня. /ТАСС/. Искусственный интеллект сегодня используется для создания порядка 10% всех фейков в Сети, свидетельствуют результаты исследования, которые представил генеральный директор АНО "Диалог" и АНО "Диалог регионы" Владимир Табак.

"Сегодня мы видим среди недостоверной информации 10% информации, сгенерированной искусственным интеллектом. И я, например, могу сказать, что у нас в 2023 году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз. То есть в целом это 10% за три года нашей работы, но кратно увеличивается количество контента, созданного искусственным интеллектом", - сказал он на сессии "Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса" в рамках Петербургского международного юридического форума (ПМЮФ).

Как напомнил Табак, ранее АНО "Диалог регионы" запустил собственную систему "Зефир", которая позволяет выявлять дипфейки. "Мы собираем там весь недостоверный контент, который появляется в сети. У нас за три года существования в системе "Зефир" было проверено более 5 млн единиц контента, и мы можем сказать, что в более чем 570 тыс. случаев было вмешательство искусственного интеллекта в создание этого контента", - добавил он.

Поэтому сегодня критически важно определиться в целом со стратегией работы с дипфейками и искусственным интеллектом, а также борьбы с ними, когда такие технологии используются в противоправных целях. "До этого говорить про какое-то законодательное регулирование рано, но, с другой стороны, нам нужно достаточно быстро уже определяться с этой стратегией", - подчеркнул Табак.

Петербургский международный юридический форум проходит с 26 по 28 июня в Санкт-Петербурге. Его главная тема в этом году - "Право - основа глобального равновесия". ТАСС - генеральный информационный партнер форума.

Читать на tass.ru
Теги