Эксперт считает, что ИИ в будущем может представлять большую угрозу, чем ядерное оружие
Директор НЦРИИ при правительстве РФ Сергей Наквасин отметил, что этические нормы ИИ предусматривают принцип "красной кнопки", согласно которому такая система должна отключаться по первому требованию
МОСКВА, 17 ноября. /ТАСС/. Технологии искусственного интеллекта (ИИ) могут на следующих этапах развития превзойти по степени опасности ядерное оружие из-за риска потери человеком возможности отключить такие системы в сфере критической инфраструктуры. Такое мнение высказал в интервью ТАСС директор Национального центра развития искусственного интеллекта (НЦРИИ) при правительстве РФ Сергей Наквасин.
В начале ноября представители 28 стран - участниц прошедшего в Великобритании первого международного саммита по безопасному использованию ИИ, в том числе США, Китая и Индии, согласовали декларацию Блетчли, посвященную вопросам развития искусственного интеллекта. Как написала ранее газета The Daily Telegraph, британский кабмин рассчитывает создать в Лондоне штаб-квартиру первого международного регулятора сферы ИИ, который будет сформирован по образцу Международного агентства по атомной энергии (МАГАТЭ).
"Механизмы международного регулирования в ближайшие годы будут активно развиваться, потребность в этом есть. Сравнение ядерной энергетики и ИИ, сама эта метафора мне видится не лишенной смысла. Думаю, что искусственный интеллект на определенном этапе развития может быть страшнее, чем ядерное оружие или атомная энергетика. Разница в том, что ядерная энергетика представлена в форме отдельных объектов инфраструктуры с соответствующими контурами безопасности, а искусственный интеллект претендует на роль субъекта, выступающего на данном этапе источником рекомендаций", - уточнил Наквасин.
"Красная кнопка"
Он указал на то, что этические нормы ИИ предусматривают принцип "красной кнопки", согласно которому такая система должна отключаться по первому требованию.
"В случае, если в подобной системе, управляющей критической инфраструктурой или АЭС, например, этот механизм не будет работать, то искусственный интеллект может превратиться из системы поддержки принятия решения в систему принятия решения. Это будет не обезьяна, которой дали гранату, а обезьяна, которую взбесили и она побежала сначала к гранатам, а потом к пушкам", - сказал эксперт, подчеркнув, что этот риск может стать актуальным на следующих этапах развития ИИ, примерно через 100 лет.
"Сейчас ИИ - это безопасный котенок", - заключил он.
Форум этики в сфере искусственного интеллекта "Поколение GPT. Красные линИИ" прошел на площадке ТАСС 16 ноября при поддержке администрации президента РФ, Минэкономразвития России, а также комиссии по этике в сфере искусственного интеллекта. По данным организаторов, на форуме выступили около 60 профильных российских и зарубежных спикеров, на площадке ТАСС собрались более 300 экспертов в области ИИ, а более 3 000 участников присоединились к онлайн-трансляции.