5 июня 2023, 08:14

Politico: Еврокомиссия предлагает ввести маркировку любого созданного нейросетью контента

По сведениям газеты, от компаний, занимающихся развитием ИИ, потребуют разработать технологии, позволяющие отличать такой контент от произведенного человеком

БРЮССЕЛЬ, 5 июня. /ТАСС/. Еврокомиссия подготовила законодательные предложения о введении в Интернете маркировки контента, сгенерированного нейросетью (текст, картинка, видео- или аудиофайлы), чтобы снизить риск использования технологии глубинной подделки (deep fake) для любых манипуляций. Об этом сообщило в понедельник европейское издание газеты Politico со ссылкой на источники в Брюсселе.

По ее информации, Еврокомиссия также намерена потребовать от компаний, занимающихся развитием искусственного интеллекта, разработать технологии, позволяющие отличать контент, созданный нейросетью, от произведенного человеком.

"Сейчас этот контент - это по большей части игра, однако завтра вы можете увидеть фейковый порнографический ролик с кандидатом в президенты", - приводит газета слова своего источника в Еврокомиссии.

В Еврокомиссии над этим досье работают службы еврокомиссара по внутреннему рынку Тьерри Бретона и замглавы Еврокомиссии по вопросам ценностей и транспарентности Веры Юровой. Они намерены включить эти требования в существующий в ЕС добровольный кодекс поведения в цифровой среде, который с 2018 года подписали ведущие западные цифровые платформы (за исключением вышедшего из этого соглашения в мае Twitter). Впоследствии обкатанные в добровольном режиме нормы станут обязательными и должны быть включены в так называемый Акт цифровых услуг, который с 2024 года станет основным инструментом регулирования цифрового пространства в ЕС.

Еврокомиссия намерена работать по трем основным направлениям, отмечает "Политико". Во-первых, разработать четкую маркировку для любого медийного контента, созданного нейросетью. Во-вторых, обязать компании, выводящие на рынки платформы, которые предоставляют пользователям доступ к нейросети, разработать механизмы защиты от использования их систем в "злонамеренных целях". В-третьих, разработать технологии, которые бы позволили отличить контент, созданный нейросетью, от контента, созданного человеком.