БРЮССЕЛЬ, 10 февраля. /ТАСС/. Американская корпорация Google выступает против нового свода правил, который разрабатывает Евросоюз в целях регулирования сферы искусственного интеллекта (ИИ). Об этом заявил президент Google по глобальным вопросам Кент Уокер европейскому изданию Politico.
Издание пишет, что новый свод правил станет продолжением европейского закона, принятого в 2024 году. Кодекс призван конкретизировать положения закона и затрагивает такие темы, как раскрытие информации о данных, которые использовались для обучения разных моделей ИИ, а также меры по борьбе с системными рисками. Ожидается, что работа над документом завершится к апрелю 2025 года.
По словам Уокера, план Евросоюза - "шаг в неверном направлении" с учетом того, что Европа стремится выстоять в условиях конкуренции в сфере ИИ. Представитель Google указал, что в разрабатываемых правилах содержатся несколько требований, которые выходят за рамки сферы регулирования ИИ или которые дублируют уже существующие правила, создавая повышенную нагрузку на отрасль. Уокер также отметил, что "пока рано говорить", подпишет ли корпорация этот кодекс, подчеркнув, что решение может быть принято после конференции по ИИ в Париже 10-11 февраля.
Ранее представитель корпорации Meta (признана в РФ экстремистской) Джоэл Каплан также раскритиковал свод правил ЕС, по которому устанавливаются "невыполнимые и технически неосуществимые требования". Он добавил, что кодекс "выходит за рамки требований" закона ЕС о ИИ.
Закон о ИИ в ЕС
В марте 2024 года депутаты Европарламента одобрили закон, касающийся применения технологий ИИ. В поддержку документа, являющего первым в мире законом по этой тематике, проголосовали 523 парламентария, еще 46 депутатов высказались против. Он призван способствовать регулированию использования таких технологий, как чат-бот ChatGPT и системы биометрической идентификации в реальном времени.
В соответствии с законодательством компании, создающие "высокорисковые" системы ИИ, должны быть более прозрачными в отношении того, как они создают и используют модели ИИ. Разработчики самых мощных моделей ИИ сталкиваются с дополнительными требованиями, например, с проведением оценки рисков. Компании, не соблюдающие закон, могут подвергнуться огромным штрафам или же их деятельность в сообществе вообще окажется под запретом.