14 МАР, 15:10

Эксперт считает, что евробюрократия ограничивает развитие искусственного интеллекта

По мнению главного архитектора систем искусственного интеллекта НИЯУ МИФИ Романа Душкина, многие технические системы, которые управляются ИИ, необходимо сертифицировать, а не запрещать, как это делают в Европе

МОСКВА, 14 марта. /ТАСС/. Евробюрократия в стремлении зарегулировать все и вся ограничивает развитие искусственного интеллекта (ИИ). Такое мнение высказал ТАСС главный архитектор систем искусственного интеллекта НИЯУ МИФИ Роман Душкин, комментируя принятый в среду Европарламентом закон, регулирующий разработку и применение ИИ.

"Евробюрократия в своем стиле - хочет "зарегулировать все и вся". Мы видим в этом законе существенные запреты на использование технологий. Конечно, каждое общество ищет баланс между свободой и безопасностью, но если человек будет умирать на улице, системы искусственного интеллекта не смогут распознать, что ему требуется помощь здесь и сейчас. На мой взгляд, это достаточно спорные решения. Еврочиновники пошли по пути давления на разработчиков искусственного интеллекта", - прокомментировал решение Душкин.

При этом эксперт выразил надежду, что в России спорное решение Европарламента действовать не будет. "У нас два направления такого регулирования. С одной стороны, есть "мягкое смарт-регулирование" в виде кодекса этики в сфере искусственного интеллекта, который подписывается разработчиками систем ИИ - вендоры как бы самостоятельно накладывают на себя некоторые ограничения, не позволяя себе разрабатывать системы ИИ, которые можно использовать в "злодейских" целях. С другой стороны, у нас есть достаточно серьезное техническое регулирование, государственные и национальные стандарты, которые регулируют применение технологий искусственного интеллекта для решения конкретных задач. Эти конкретные стандарты описывают методы испытания частных алгоритмов искусственного интеллекта", - объяснил собеседник агентства.

В качестве примера такой частной задачи он привел систему распознания сигнала светофора. Есть беспилотный автомобиль, у которого имеется видеокамера, она "смотрит" на окружающее пространство и фиксирует сигналы светофора вокруг автомобиля. Сертифицирующая организация, которая проверяет систему управления беспилотником, дает добро на использование конкретного частного алгоритма распознания сигналов светофора, если этот алгоритм соответствует определенным характеристикам. И выносит свое экспертное заключение, что такому алгоритму можно доверять.

"Не секрет, что многие технические системы несут повышенную опасность, в том числе и те, которые управляются искусственным интеллектом. Их как раз нужно сертифицировать, чтобы общество могло им доверять. Эта сертификация должна обеспечивать качество систем. Существующие в России два направления регулирования направлены на решение двух задач: обеспечить доверие общества, государства и каждого человека к новым техническим решениям, но не зарегулировать, как это делают в Европе, бурно развивающуюся отрасль. Я уверен, что отрасль искусственного интеллекта в Европе будет развиваться с большим скрипом. Надеюсь, нас это не постигнет", - отметил ученый.

О принятом законе

Закон классифицирует все основанные на ИИ системы и инструменты по уровню риска, который может быть как несущественным, так и высоким. Документ, в частности, запрещает использование систем распознавания лиц и других систем "удаленной биометрической идентификации" в режиме реального времени в общественных местах. Это означает, что полиции нельзя будет пользоваться системами предиктивной аналитики для профилактики правонарушений. Закон регулирует применение генеративных нейросетей (таких как ChatGPT), а также "высокорисковых систем" - беспилотных автомобилей, медицинского оборудования.

Читать на tass.ru
Теги