Эксперт считает, что определение ИИ нужно закрепить в федеральном законодательстве
Заместитель начальника отдела специальных проектов и академических программ научно-технического центра Главного радиочастотного центра Станислав Махортов отметил, что есть несколько моментов, которые в будущем могут стать не только очень серьезной проблемой, но и инструментом, который позволит злоумышленникам влиять на население
САНКТ-ПЕТЕРБУРГ, 29 июня. /ТАСС/. Четкое определение понятия "искусственный интеллект" (ИИ) должно быть закреплено в федеральном законодательстве. Такое мнение выразил заместитель начальника отдела специальных проектов и академических программ научно-технического центра Главного радиочастотного центра (ГРЧЦ), подведомственного Роскомнадзору, Станислав Махортов.
"Проблемы, которые сейчас есть в сфере мошенничества, где используется искусственный интеллект, они актуальны и исследуются. И Роскомнадзор, и ГРЧЦ являются активными сторонниками необходимости регулирования искусственного интеллекта. Без определения, что есть ИИ на уровне федерального законодательства, сложно бороться с технологиями злоумышленников, которые реализуются. <…> Поэтому мы предлагаем установить статус ИИ на уровне федерального законодательства. Это, на наш взгляд, решит очень много проблем", - сказал он на сессии "Правовые проблемы искусственного интеллекта" на Международном молодежном юридическом форуме.
Помимо известных рисков использования технологий на основе искусственного интеллекта, в настоящее время также есть несколько неочевидных моментов, которые в будущем могут стать не только очень серьезной проблемой, но и инструментом, который позволит злоумышленникам влиять на население, добавил Махортов. "Например, проблема дипфейков. Они уже настолько совершенствуются с каждым днем, что порой сложно физически отличить поддельное от настоящего. Скоро, возможно, это даже горизонт нескольких лет, это будет сложно сделать и технически. Также мы видим опасность в рекомендательных алгоритмах. Они уже сейчас очень сильно манипулируют данными. В исследованиях Роскомнадзора была выявлена тенденция, которая позволяет рекомендательным алгоритмам тестировать рекомендации на определенной группе граждан и при удачном воздействии на население использовать их уже на более широкой аудитории", - рассказал он.
Кроме установления статуса искусственного интеллекта на уровне федерального законодательства, также должно быть введено определенное ограничение использования новейших технологий, считает Махортов. "В каких-то случаях стоит ввести запрет использования технологии на уровне внесения изменений в законодательство. Госдума, Совет Федерации и эксперты определят, какая сфера должна быть урегулирована, где должен быть запрещен ИИ, а где можно возложить на разработчиков обязанность <...> [публиковать] информацию о той или иной технологии", - отметил он.