NYT предупредила об угрозах биологической безопасности со стороны ИИ
НЬЮ-ЙОРК, 10 октября. /ТАСС/. Технологии искусственного интеллекта (ИИ) могут использоваться для разработки смертельно опасных вирусов, а темпы развития ИИ опережают возможности по противодействию таким угрозам. Об этом пишет газета The New York Times со ссылкой на данные экспертов.
Как отмечает издание, в сентябре 2025 года ученые из Стэнфордского университета в США впервые применили ИИ для разработки искусственного вируса для борьбы с кишечной палочкой. По оценке экспертов, нейросети "с такой же легкостью" могут быть использованы для разработки смертельно опасного патогена, угрожающего всему человечеству.
Эксперты предлагают различные решения - от создания международного регулирующего органа в области ИИ по образцу Международного агентства по атомной энергии (МАГАТЭ) до разработки специализированных систем безопасности для противодействия возможным угрозам со стороны ИИ.
Однако, как отмечает газета, современные системы искусственного интеллекта достигли уровня, когда их потенциальная опасность сравнялась с ядерной угрозой. Прорыв в области технологий искусственного интеллекта аналитики сравнивают с созданием ядерного оружия в XX веке. По мнению экспертов, "вопрос уже не в том, способен ли ИИ уничтожить человечество", а в том, "найдется ли кто-то достаточно безрассудный, чтобы создать подобную систему".


