Кодекс этики искусственного интеллекта подписали в Москве
Авторами документа стали представители Альянса в сфере искусственного интеллекта, Аналитического центра при Правительстве РФ и Минэкономразвития
ТАСС, 27 октября. Международный форум "Этика искусственного интеллекта: начало доверия" (6+) при поддержке Правительства РФ 26 октября прошел в Москве на площадке информационного агентства ТАСС. Он стал первой в России специализированной площадкой для выработки принципов этики в данной сфере. Участники мероприятия, в число которых вошли представители федеральных и региональных органов власти, деловых и общественных кругов, обсудили не только текущую ситуацию и влияние искусственного интеллекта на традиционные сферы жизни, но и связанные с его использованием риски.
Центральным событием форума стало торжественное подписание Кодекса этики искусственного интеллекта (далее - Кодекс), разработанного с учетом требований Национальной стратегии развития искусственного интеллекта на период до 2030 года. Авторами документа из 33-х положений, закрепляющих базовые принципы жизни в реальности, где человек окружен автоматизированными системами, стали представители Альянса в сфере искусственного интеллекта, Аналитического центра при Правительстве РФ и Минэкономразвития. Кодекс, в частности, содержит положения о том, что авторы в сфере ИИ в работе должны использовать гуманистический подход и защищать права человека, в отдельный пункт вынесен запрет на причинение вреда жизни и здоровью человека, имуществу и окружающей среде. Документ станет частью федерального проекта "Искусственный интеллект".
Электронные подписи под меморандумом о присоединении к Кодексу этики искусственного интеллекта поставили генеральный директор "Ростелекома" Михаил Осеевский, ректор Высшей школы экономики Никита Анисимов, генеральный директор "Яндекс в России" Елена Бунина, председатель правления фонда "Сколково" Игорь Дроздов, президент группы компаний InfoWatch Наталья Касперская, ректор Сколковского института науки и технологий Александр Кулешов, ректор Московского физико-технического института Дмитрий Ливанов, генеральный директор ЦИАН Максим Мельников, президент, председатель правления МТС Вячеслав Николаев, ректор "Университета Иннополис" Александр Тормасов, первый заместитель генерального директора Российского фонда прямых инвестиций Анатолий Браверман, первый заместитель председателя правления ПАО "СберБанк" Александр Ведяхин, заместитель вице-президента, директор по технологиям искусственного интеллекта Mail.ru, "Вконтакте" Андрей Калинин, первый проректор ИТМО Дарья Козлова, директор Института системного программирования им. В. П. Иванникова РАН Арутюн Аветисян, директор по анализу данных и моделированию в "Газпромнефть" Анджей Аршавский, директор по цифровизации госкорпорации "Росатом" Екатерина Солнцева.
Вице-премьер Правительства РФ Дмитрий Чернышенко на пленарном заседании форума отметил, что, по данным ВЦИОМ, в стране достаточно высок уровень доверия к технологиям ИИ - порядка 48%. "Мы понимаем, что современный мир совершенно неотделим от искусственного интеллекта, это невозможно проигнорировать, или от него невозможно отгородиться. И это цивилизационный уже проект, мы практически видим везде участие искусственного интеллекта. При этом отмечаются некоторые риски, я бы их не демонизировал. Здесь вопрос о том, насколько ответственно будет подходить и само государство, и участники сообщества искусственного интеллекта для того, чтобы эти риски минимизировать. Но на весах мы видим огромную пользу от искусственного интеллекта. Нужно работать над тем, чтобы у общества были совершенно конкретные поводы быть уверенным в том, что государство защищает. И мы должны это делать, развивая государственное и общественное регулирование, этическое регулирование в этих областях, оно позволит нам с этим справиться", - сказал он.
Президент ГК Infowatch Наталья Касперская отметила, что несмотря на доверие в технологиях всегда есть некоторые риски: "Любая технология, и искусственный интеллект не исключение, несет определенные риски, причем риски, начиная от информационной безопасности и заканчивая социальными. Ключевым, безусловно, является вопрос доверия к ИИ, и этот Кодекс пишется, в частности, для того, чтобы системы, которые бы создавались, они этому доверию соответствовали".
Отчасти повысить уровень доверия позволят, по мнению начальника Управления Президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяны Матвеевой, организованные дискуссии с обществом, а также экспертным и научным сообществами. "Кодекс позволит российским компаниям, российским компаниям-разработчикам достаточно уверенно и хорошо себя чувствовать в рамках различных международных площадок и выводить свои продукты на международные рынки", - пояснила она.
В то же время крупным компаниям и корпорациям, которые намеренны использовать искусственный интеллект, предстоит провести сложную работу по адаптации и внедрению принципов, закрепленных в документе, считает первый заместитель председателя правления ПАО "Сбербанк" Александр Ведяхин. "Есть еще очень большая техническая сторона этического Кодекса искусственного интеллекта. Она показывает, что компания настроена на долгосрочное стабильное развитие в пользу своих клиентов, а значит, и в пользу своих акционеров, а значит, на повышение долгосрочной стоимости", - сказал он, подчеркнув, что в "Сбере" уже почти 100 % решений по кредитованию физических лиц и до 70 % решений по кредитованию юридических лиц принимает ИИ.
Президент, председатель правления ПАО "МТС" Вячеслав Николаев обратил внимание, что доверие к искусственному интеллекту во многом подрывает непонимание принципов его работы и страх остаться без работы из-за внедрения более эффективных и менее ресурсозатратных, по сравнению с человеком, технологий. "Вообще любое недоверие у человека связано с пониманием. И если в других сферах можно объяснить, что и как работает, то объяснить среднестатистическому человеку, как работает система искусственного интеллекта крайне сложно", - считает он.
В свою очередь основатель кинокомпании Art Pictures Studio Федор Бондарчук рассказал, что в киноиндустрии и новых медиа искусственный интеллект позволяет прогнозировать кассовые сборы фильма или сериала с точностью до 85%. "Инструмент этот в руках продюсера? Безусловно! Поэтому так важно сегодня говорить о демократизации технологий искусственного интеллекта", - подчеркнул режиссер.
За пленарным заседанием форума последовал ряд специализированных дискуссий, на которых подняли вопросы применения ИИ практически во всех сферах жизни: регулировании, безопасности, бизнесе, образовании, науке, религии. В дискуссиях приняли участие представители власти, деловых кругов, ученые, представители РПЦ и международные эксперты.
В частности, участники сессии "Человек vs ИИ: этика, доверие и ксенофобия" пришли к выводу, что во многом недоверие связано с растиражированными в социокультурном пространстве негативными образами подобных технологий.
"Понятно, что такие образы имеют мощные социокультурные воздействия, и они остаются навсегда у нас в памяти. <…> Думаю, что, с одной стороны, должно быть создание таких образов в социокультурном пространстве. С другой стороны, должна быть реальная польза от искусственного интеллекта. И она явно должна быть подсвечена для того, чтобы это тоже оставалось в подсознании, для того чтобы люди могли связать те вещи, которые они в обыденной жизни и так получают с действиями искусственного интеллекта", - сказал управляющий директор управления развития компетенций по исследованию данных Сбербанка Владимир Авербах.
Участники сессии "Этика искусственного интеллекта (ИИ) в государстве", где модератором дискуссии выступила руководитель направления исследований и аналитики центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС Екатерина Потапова, подняли вопросы этических принципов внедрения технологий ИИ в госсекторе и исследовательской работе центра по вопросам этики.
"Государство как регулятор в первую очередь должно заботиться об интересах граждан, следить за тем, чтобы технологии были этичными, не дискриминирующими. В 2020-21 годах государства и компании собирают данные в таких объемах, которые прежде однозначно выглядели бы как грубое нарушение приватности. С другой стороны, технологии дают слишком много возможностей государству, чтобы их игнорировать. Важно сделать так, чтобы эти возможности не были использованы во вред гражданам", - отметила Екатерина Потапова.
О том, какие риски возникают при принятии решений с помощью ИИ в госуправлении, рассказала эксперт центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС, руководитель проектного направления "Цифровое право" ЦПУР Ольга Шепелева. По ее словам, неэтичное использование интеллектуальных систем может привести к дискриминации отдельных групп людей, в том числе неумышленной. Кроме того, существуют риски непрозрачности результатов и склонности пользователей некритично полагаться на рекомендации ИИ. Эксперт перечислила факторы, усиливающие риски, - избыточный оптимизм относительно использования ИИ, вопросы к качеству данных и нехватка квалифицированных специалистов.
При обсуждении правового аспекта в рамках трека "Нормативное регулирование искусственного интеллекта" вновь был поднят вопрос доверия, а информированность и осведомленность были названы главными инструментами его повышения. "Нам необходимо до потенциальных пользователей и до тех людей, которые уже сейчас активно пользуются системами, доводить информацию, чтобы они лучше понимали, что может предоставить эта система, на что рассчитывать не стоит, где границы применимости и основные аспекты функционирования. Мне кажется, это здорово продвинет общество в решении вопросов доверия, поскольку, если мы понимаем, как это работает, мы можем этому доверять", - заявил на дискуссии директор департамента стратегического развития и инноваций Минэкономразвития Рустам Тихонов.
Отдельное внимание на форуме уделили подготовке кадров для работы с искусственным интеллектом. Участники дискуссии "Этика ИИ в образовании" сошлись во мнении, что без качественных программ и платформ подготовки кадров развитие ИИ в стране невозможно. При этом именно искусственный интеллект может позволить экономике России стать одним из мировых лидеров в ближайшие годы. По словам заместителя директора центра "Искусственный интеллект" МГТУ имени Баумана Александра Чесалова, ИИ постоянно трансформирует сферу образования, однако программы подготовки специалистов в этой сфере в стране пока не так распространены, и ощущается кадровый голод.
Важно при подготовке специалистов обучать их не только созданию качественного продукта, но и прогнозированию развития и внедрения своих разработок, считает ректор научно-технологического университета "Сириус" Максим Федоров. "С первого дня мы вовлекаем в проект, но этого недостаточно, то есть практический опыт внедрения недостаточен. Важно еще, чтобы они понимали все эти нюансы, связанные с этикой внедрения, понимали гуманитарно-социальный аспект", - пояснил он.
Форум стал площадкой и для обмена опытом использования искусственного интеллекта в регионах России. На сессии "Опыт этики ИИ в регионах" выступали Дмитрий Онтоев, начальник аналитического управления Департамента информационных технологий Москвы - города, где уже реализуют порядка 70 проектов, а также представители Кемеровской области, Кузбасса, Татарстана, Якутии и Ульяновской области.
"Мы совместно с центром стратегических разработок создали ассоциацию по внедрению искусственного интеллекта в публичном секторе. <…> Самое первое решение, с которого мы начали в области искусственного интеллекта, - это роботизация голосовых сервисов, это платформа естественного языка. В прошлом году начали ее создавать, могу сказать, что результат очень серьезный. <…> Время пребывания абонента на линии сократилось почти в два раза, а количество непринятых вызовов с 50 % до 2 %, и среднее время ожидания абонента измеряется в секундах", - сказал министр цифрового развития и связи Кузбасса Максим Садиков.
"У нас в проекте "Безопасный город" участвуют порядка 20 тыс. камер, которые расположены в общественных местах. Они снимают все пространство, и для получения, например, одного из сервисов - "Поиск свободного парковочного места" - пользователь просто в чат-боте отправляет запрос, и ему приходит фотография свободного места. Фотография может прислать большое количество персональных данных: номера автомобилей, людей, лица. Мы применяем платформенное решение, которое позволяет обезличить эти данные, "замазывать" номера, лица, образы людей", - рассказал о региональном опыте руководитель Центра цифровой трансформации Республики Татарстан Динар Самигуллин.
Врио начальника Главного управления научно-исследовательской деятельности Министерства обороны Российской Федерации Александр Осадчук отметил, что в России на государственном уровне стоит задача создать институты поддержки комплексной функциональной надежности и безопасности технологий искусственного интеллекта с использованием сертифицированных отечественных программно-аппаратных и вычислительных средств. "Решение вышеуказанных задач позволит создать отечественный институт сертификации и комплексные надежные технологии искусственного интеллекта. <…> Очень приятно, что мы реально смогли внести необходимые изменения, которые касаются выполнения требований Стратегии национальной безопасности и требования по созданию национальной школы развития технологий искусственного интеллекта", - сказал он.
Наряду с недостаточно высоким уровнем доверия и нехваткой квалифицированных кадров также существует проблема, связанная с деталями применения искусственного интеллекта, особенно в отношении отдельных людей, сказал глава комитета цифровых технологий Совета Европы Кристиан Бартолин в своем выступлении на сессии "Международный опыт этики ИИ". "Развитие ИИ, цифровых технологий, алгоритмов дает возможности, о которых мы и не могли раньше мечтать. Нужно, чтобы мы не мешали разработке ИИ. В то же время мы должны строго следить за этим и регулировать в части систем ИИ, которые могли тем или иным образом негативно повлиять на фундаментальные права человека, на то, как функционирует демократия", - уточнил он.
Представители религиозных организаций обратили внимание на ответственность разработчиков искусственного интеллекта и тех, кто его внедряет. "Хорошо, что даже в этом документе (Кодексе этики в сфере искусственного интеллекта) есть и эта тема - тема ответственности разработчиков и акторов искусственного интеллекта. И это очень важно. Я думаю, что эта тема, зафиксированная в документе, позволит несколько раскрыть вопрос современных технологий и искусственного интеллекта для дальнейшего обсуждения в религиозном сообществе. Не нужно думать, что религиозное сознание в целом и христианство в частности, христианские сообщества конкретно в той или иной стране закрыты, замкнуты или не готовы к обсуждению и чему-то новому. Нет, наоборот", - высказал мнение председатель информационной комиссии Московской городской епархии Русской Православной Церкви Александр Волков в рамках дискуссии "Религия и искусственный интеллект".
Вместе с тем, как отметил старший вице-президент по инновациям фонда "Сколково" Кирилл Каем, системы искусственного интеллекта пока достаточно слабы. "Следующие лет 15, если оптимистично, нам надо не забывать, что в первую очередь речь идет о слабом искусственном интеллекте и о прикладных решениях или узком искусственном интеллекте. Это означает, что следующие 10-15 лет мы все-таки будем иметь в руках решения, которые не обладают сознанием еще в отличие от общего или сильного искусственного интеллекта. Мне кажется, Кодекс должен быть динамичным документом, то, что он принят сейчас - это такой экспериментально этический режим", - заявил он.
По мнению Каема, документ в будущем обязательно нужно пересматривать, в том числе в рамках саморегулируемых систем. "Набор кейсов, тех самых практик, конкретных решений, которые будут накапливать ошибки, и позволит соблюсти тот баланс между максимальной эффективностью решения и соблюдением норм, которые при создании этой системы будут закладываться как корректирующие коэффициенты", - добавил старший вице-президент по инновациям фонда "Сколково".
Заместитель руководителя Аналитического центра при Правительстве Российской Федерации - руководитель Центра экспертизы по реализации федерального проекта "Искусственный интеллект" Сергей Наквасин в заключительной дискуссии "Механизмы внедрения этики ИИ" обозначил ключевые идеи участников, прозвучавшие на всех сессиях форума.
"Важно сделать так, чтобы те ценности, которые мы обсудили, воплотились в жизнь, чтобы то, что делают разработчики искусственного интеллекта, соответствовало нашим представлениям об этике искусственного интеллекта. Если компания создает комфортный продукт или услугу для людей, она становится этическим лидером и этот успех хотят повторять другие, - отметил Наквасин.
Мероприятие прошло в гибридном формате. Для всех желающих были организованы онлайн-трансляции сессий форума. Дополнительную информацию можно получить на официальном сайте проекта.
Возрастная категория мероприятия 6+