МОСКВА, 17 ноября. /ТАСС/. Технологии искусственного интеллекта (ИИ) могут на следующих этапах развития превзойти по степени опасности ядерное оружие из-за риска потери человеком возможности отключить такие системы в сфере критической инфраструктуры. Такое мнение высказал в интервью ТАСС директор Национального центра развития искусственного интеллекта (НЦРИИ) при правительстве РФ Сергей Наквасин.
В начале ноября представители 28 стран - участниц прошедшего в Великобритании первого международного саммита по безопасному использованию ИИ, в том числе США, Китая и Индии, согласовали декларацию Блетчли, посвященную вопросам развития искусственного интеллекта. Как написала ранее газета The Daily Telegraph, британский кабмин рассчитывает создать в Лондоне штаб-квартиру первого международного регулятора сферы ИИ, который будет сформирован по образцу Международного агентства по атомной энергии (МАГАТЭ).
"Механизмы международного регулирования в ближайшие годы будут активно развиваться, потребность в этом есть. Сравнение ядерной энергетики и ИИ, сама эта метафора мне видится не лишенной смысла. Думаю, что искусственный интеллект на определенном этапе развития может быть страшнее, чем ядерное оружие или атомная энергетика. Разница в том, что ядерная энергетика представлена в форме отдельных объектов инфраструктуры с соответствующими контурами безопасности, а искусственный интеллект претендует на роль субъекта, выступающего на данном этапе источником рекомендаций", - уточнил Наквасин.
"Красная кнопка"
Он указал на то, что этические нормы ИИ предусматривают принцип "красной кнопки", согласно которому такая система должна отключаться по первому требованию.
"В случае, если в подобной системе, управляющей критической инфраструктурой или АЭС, например, этот механизм не будет работать, то искусственный интеллект может превратиться из системы поддержки принятия решения в систему принятия решения. Это будет не обезьяна, которой дали гранату, а обезьяна, которую взбесили и она побежала сначала к гранатам, а потом к пушкам", - сказал эксперт, подчеркнув, что этот риск может стать актуальным на следующих этапах развития ИИ, примерно через 100 лет.
"Сейчас ИИ - это безопасный котенок", - заключил он.
Форум этики в сфере искусственного интеллекта "Поколение GPT. Красные линИИ" прошел на площадке ТАСС 16 ноября при поддержке администрации президента РФ, Минэкономразвития России, а также комиссии по этике в сфере искусственного интеллекта. По данным организаторов, на форуме выступили около 60 профильных российских и зарубежных спикеров, на площадке ТАСС собрались более 300 экспертов в области ИИ, а более 3 000 участников присоединились к онлайн-трансляции.