В ЦБ считают, что риски при использовании ИИ связаны с информационной безопасностью
Отдельно участники финансового рынка отметили риски, связанные с применением генеративного ИИ, в том числе риск использования дипфейков в мошенничестве
МОСКВА, 22 мая. /ТАСС/. Наиболее актуальными внутренними рисками при внедрении в процессы искусственного интеллекта финансовые организации считают риски в области информационной безопасности (утечка персональных данных, кибератаки, цифровое мошенничество). Об этом сообщается в отчете об итогах обсуждения доклада Банка России по применению искусственного интеллекта.
"Среди наиболее актуальных внутренних рисков для финансовых организаций респонденты назвали риски в области оборота данных и информационной безопасности (утечка персональных данных и иной конфиденциальной информации, кибератаки, цифровое мошенничество), риски разработки и искажения работы моделей ИИ ("галлюцинации" ИИ, ошибки в тестировании и валидации, отсутствие должного контроля при разработке моделей, неверная интерпретация полученных результатов), этические риски и риски нарушения прав потребителей", - говорится в сообщении.
Отдельно участники финансового рынка отметили риски, связанные с применением генеративного ИИ, в том числе риск использования дипфейков в мошенничестве, например при применении социальной инженерии или для манипулирования информацией.
К значимым внешним рискам респонденты отнесли риски злоупотребления доминирующим положением и риски монополизации технологий крупными участниками рынка, макроэкономические риски и риски финансовой стабильности. Также отдельно участники затронули вопросы технологического аутсорсинга и риски, связанные с прекращением деятельности разработчика, нехваткой оборудования и необходимостью в некоторых случаях использования иностранных технологических решений.
Регулятор отмечает, что в целом будет содействовать развитию искусственного интеллекта и придерживаться риск-ориентированного подхода при его применении.