2 ноября 2023, 17:03

В ЕК сравнили потенциал ИИ с ядерными технологиями

Глава Еврокомиссии Урсула фон дер Ляйен считает, что он нуждается в строгом контроле

ЛОНДОН, 2 ноября. /ТАСС/. Потенциал искусственного интеллекта (ИИ) сопоставим с ядерными технологиями, поэтому Евросоюз предлагает создать столь же строгие правила регулирования его разработки, создания и обучения, как и те, которые были выработаны на протяжении десятилетий для ядерной сферы или авиации, заявила глава Еврокомиссии Урсула фон дер Ляйен. При этом она призвала предоставить ученым, занимающимся ИИ максимальное финансирование и свободу действий.

"Мы входим в совершенно новую эру. Мы находимся на пороге эры, когда машины могут начать действовать разумно. Я надеюсь, что в течение пяти следующих лет мы сможем действовать быстро и учесть наш прошлый опыт. Принимая во внимание сложность этих умных машин, проблема безопасности искусственного интеллекта становится еще более сложной", - заявила она, выступая на Первом международном саммите по безопасному использованию искусственного интеллекта, который прошел в Блетчли-парке в графстве Бакингемшир под Лондоном.

Она подчеркнула необходимость учитывать опыт создания других технологий, таких как ядерная энергия. "Возьмите историю атомной энергии и ядерной бомбы. Ученые открыли квантовую физику, что привело нас к ядерной энергии, но также к рискам для всего общества в виде атомной бомбы", - сказала она.

"Нам нужно создать стандарты безопасности ИИ, которые приняты во всем мире. Хорошим примером служит авиация. Авиаперелеты стали совершенно безопасны, поскольку мы системно учились на наших ошибках", - заявила она.

Она также отметила, что значительный опыт для разработки норм контроля в сфере ИИ можно почерпнуть в сфере кибербезопасности, в частности в области обмена информацией в реальном времени о новых угрозах в виртуальной среде.

Глава Еврокомиссии также призвала предоставить ученым, занимающимся развитием ИИ, "государственное финансирование, доступ к суперкомпьютерам и максимальную свободу действий".

Первый саммит про ИИ

Первый международный саммит по безопасному ИИ проходит 1-2 ноября на территории усадьбы Блетчли-парк в пригороде города Милтон-Кинс, расположенного примерно в 70 км к северо-западу от Лондона. Там в годы Второй мировой войны находилась правительственная школа кодов и шифров (Government Code & Cypher School, GC&CS), где работала команда математика Алана Тьюринга, взломавшая код нацистской шифровальной машины Enigma.

Приглашение принять участие в саммите приняли около 100 экспертов и высокопоставленных гостей, включая вице-президента США Камалу Харрис, главу Еврокомиссии Урсулу фон дер Ляйен, генерального секретаря ООН Антониу Гутерриша, владельца SpaceX, Tesla и социальной сети X (ранее Twitter) Илона Маска, президента компании Microsoft Брэда Смита, главу Google DeepMind Демиса Хассабиса, а также Сэма Альтмана - генерального директора компании Open AI, разработавшей популярный чат-бот ChatGPT. Китай на саммите представлял заместитель министра науки и технологий КНР У Чжаохуэй.

В первый же день на саммите 28 стран приняли декларацию Блетчли. В ней представители США, Китая, ЕС, стран Латинской Америки, Ближнего Востока и Азии приветствовали международные усилия по изучению рисков от ИИ, призвав к безопасной и ответственной разработке и внедрению технологий ИИ.