4 АПР, 01:00

Guardian: армия Израиля может использовать ИИ для отбора связанных с ХАМАС целей

Как пишет газета, система Lavander показала 90%-ную точность при определении членов радикального движения

ЛОНДОН, 4 апреля. /ТАСС/. Армия обороны Израиля (ЦАХАЛ) может использовать технологию искусственного интеллекта (ИИ), чтобы выбирать цели для авиаударов среди жителей сектора Газа. Об этом сообщает газета The Guardian, ссылаясь на заявления шести сотрудников израильской разведки, с которыми на условиях анонимности беседовал иерусалимский журналист Ювал Авраам.

Как утверждается в статье британского издания, подразделение 8200 Управления военной разведки Израиля за последние годы создало две системы, позволяющие обрабатывать большие объемы информации и создавать базу целей для военных. Система Lavender якобы ведет учет жителей анклава, связанных с радикальной группировкой ХАМАС, а в систему Gospel заносятся здания и строения, которые могут использовать боевики. При тестировании алгоритмов Lavender она якобы продемонстрировала 90%-ную точность при определении членов вооруженного крыла ХАМАС.

"Пиковым показателем были указанные системой 37 тыс. человек, являющихся потенциальными целями, - заявил один из собеседников Авраама. - Однако цифры все время менялись, поскольку все зависит от установленных вами критериев того, кого считать боевиком ХАМАС".

Некоторые разведчики, рассказывавшие о том, как работает система, упоминали о давлении со стороны военных, требовавших предоставить им больше целей для авиаударов. Упоминался также показатель, якобы определявший, сколько мирных жителей могут быть убиты при ликвидации члена ХАМАС израильскими военными. Утверждалось, что в начале военной кампании, проводимой ЦАХАЛ в секторе Газа, допустимой считалась гибель 15-20 гражданских при устранении 1 рядового боевика, однако затем это число было решено снизить.

"У нас были рассчитаны показатели [жертв среди гражданских] для командира бригады, для командира батальона и так далее", - заявил один из источников. "Существовали нормативы, но они были очень нестрогими. Мы убивали [командиров ХАМАС] при сопутствующем ущербе в десятки погибших [гражданских], иногда речь шла о небольших трехзначных числах", - добавил другой.

Позиция ЦАХАЛ

В опубликованном The Guardian комментарии ЦАХАЛ опровергаются утверждения, что цели для авиаударов отбираются с помощью ИИ.

"Та "система", о которой вы спрашиваете, системой не является. Это просто база данных, предназначенная для перекрестного сопоставления информации из разведывательных источников для получения актуальной информации о боевиках террористических организаций. Это не список лиц, которые достоверно являются боевиками и законными целями для ударов", - отметили в Армии обороны Израиля.

ЦАХАЛ заявил, что израильские военные соблюдают международное право: осуществляют удары по законным военным целям и следуют принципу пропорциональности. А при выборе целей используют набор разнообразных инструментов, в число которых не входит ИИ, якобы определяющий, является человек боевиком или нет. Было также подчеркнуто, что аналитики израильской разведки проводят дополнительные проверки, подтверждая, что тот или иной человек может быть ликвидирован как боевик в соответствии с внутренними правилами ЦАХАЛ и международными правовыми нормами.

При этом, согласно приводимым в статье утверждениям израильских разведчиков, использующих Lavender, в реальности такое подтверждение может быть формальностью, "на каждую цель уходит 20 секунд", а роль человека в принятии решений минимальна.

Читать на tass.ru
Теги