Байден обсудил с главами Microsoft и Google связанные с ИИ риски
Компании, развивающие технологии искусственного интеллекта, несут ответственность за обеспечение безопасности своих продуктов, подчеркнул президент
ВАШИНГТОН, 5 мая. /ТАСС/. Американский лидер Джо Байден, вице-президент Камала Харрис, глава корпорации Microsoft Сатья Наделла, генеральный директор компаний Google и Alphabet Сундар Пичаи обсудили в четверг в Белом доме риски, связанные с искусственным интеллектом. Об этом говорится в распространенном письменном заявлении пресс-службы главы вашингтонской администрации.
Во встрече также приняли участие Сэм Олтмен, генеральный директор американской компании OpenAI, которая разработала чат-бот на базе искусственного интеллекта ChatGPT, и Дарио Амодеи, генеральный директор компании Anthropic, основанной бывшими сотрудниками OpenAI. Байден "подчеркнул, что компании несут фундаментальную ответственность за обеспечение безопасности и надежности их продуктов до их внедрения и распространения", отмечается в документе. Участники встречи "поделились опасениями по поводу рисков, связанных с искусственным интеллектом".
По мнению главы государства и вице-президента, "для реализации преимуществ, которые могут быть получены в результате развития искусственного интеллекта, необходимо смягчить как существующие, так и потенциальные риски, которые искусственный интеллект представляет для каждого человека, общества [в целом] и национальной безопасности". "К ним относятся риски в сферах безопасности, прав и свобод человека, неприкосновенности частной жизни, рабочих мест и демократических ценностей", - добавили в Белом доме. Руководителей корпораций призвали к "ответственным действиям и принятию мер для <...> защиты прав и обеспечения безопасности граждан".
"Во время встречи также состоялось откровенное и конструктивное обсуждение трех ключевых вопросов: необходимости для компаний быть более прозрачными для политиков, общественности и других лиц в отношении своих систем искусственного интеллекта; важности возможности проведения оценки, проверки и подтверждения безопасности, надежности и эффективности систем искусственного интеллекта; необходимости обеспечения защиты систем искусственного интеллекта от злоумышленников и атак", - отмечается в заявлении.