Politico: Еврокомиссия предлагает ввести маркировку любого созданного нейросетью контента

По сведениям газеты, от компаний, занимающихся развитием ИИ, потребуют разработать технологии, позволяющие отличать такой контент от произведенного человеком
Редакция сайта ТАСС
05 июня 2023, 08:14

БРЮССЕЛЬ, 5 июня. /ТАСС/. Еврокомиссия подготовила законодательные предложения о введении в Интернете маркировки контента, сгенерированного нейросетью (текст, картинка, видео- или аудиофайлы), чтобы снизить риск использования технологии глубинной подделки (deep fake) для любых манипуляций. Об этом сообщило в понедельник европейское издание газеты Politico со ссылкой на источники в Брюсселе.

По ее информации, Еврокомиссия также намерена потребовать от компаний, занимающихся развитием искусственного интеллекта, разработать технологии, позволяющие отличать контент, созданный нейросетью, от произведенного человеком.

"Сейчас этот контент - это по большей части игра, однако завтра вы можете увидеть фейковый порнографический ролик с кандидатом в президенты", - приводит газета слова своего источника в Еврокомиссии.

В Еврокомиссии над этим досье работают службы еврокомиссара по внутреннему рынку Тьерри Бретона и замглавы Еврокомиссии по вопросам ценностей и транспарентности Веры Юровой. Они намерены включить эти требования в существующий в ЕС добровольный кодекс поведения в цифровой среде, который с 2018 года подписали ведущие западные цифровые платформы (за исключением вышедшего из этого соглашения в мае Twitter). Впоследствии обкатанные в добровольном режиме нормы станут обязательными и должны быть включены в так называемый Акт цифровых услуг, который с 2024 года станет основным инструментом регулирования цифрового пространства в ЕС.

Еврокомиссия намерена работать по трем основным направлениям, отмечает "Политико". Во-первых, разработать четкую маркировку для любого медийного контента, созданного нейросетью. Во-вторых, обязать компании, выводящие на рынки платформы, которые предоставляют пользователям доступ к нейросети, разработать механизмы защиты от использования их систем в "злонамеренных целях". В-третьих, разработать технологии, которые бы позволили отличить контент, созданный нейросетью, от контента, созданного человеком.