news_header_top_970_100
16+
news_header_bot_970_100

Израиль применил ИИ «Евангелие» при выборе целей для ударов по ХАМАС

Израиль применил ИИ «Евангелие» при выборе целей для ударов по ХАМАС
Война в секторе Газа
Фото: Wikipedia.org

Израиль опирается на систему искусственного интеллекта «Евангелие» при выборе целей для нанесения ударов по предполагаемым местам нахождения боевиков радикального палестинского движения ХАМАС в секторе Газа. Об этом пишут британская газета The Guardian и израильская Local Call.

Имеющаяся у Армии обороны Израиля (ЦАХАЛ) база данных содержит сведения о 30–40 тыс. предполагаемых боевиков ХАМАС или других группировок. Соответственно, автоматизированная система предлагает для совершения атак координаты домов таких лиц, пояснили источники Local Call.

В 2019 году в АОИ было создано специальное подразделение, предназначенное для ускоренного поиска целей с помощью искусственного интеллекта. Экс-начальник Генерального штаба ЦАХАЛ Авив Кохави еще до нынешней войны отмечал, что раньше военные обнаруживали 50 целей в секторе Газа за год, а ИИ дает возможность выявлять по сто целей каждый день.

В свою очередь представитель Армии обороны Израиля 2 ноября подчеркнул, что система «Евангелие» «позволяет использовать автоматические инструменты для быстрого определения целей».

Собеседники The Guardian рассказали, что высокопоставленные лидеры ХАМАС скрылись в туннелях сразу после начала атак, а система ИИ помогает находить младших по рангу боевиков. Один из источников Local Call уточнил, что раньше по таким целям далеко не всегда наносились удары, но правила изменились после нападения на Израиль 7 октября.

«Другие государства будут наблюдать и учиться», — предупредил британское издание бывший сотрудник службы безопасности Белого дома, знакомый с использованием автономных систем американскими военными. По его мнению, война в секторе Газа станет «важным моментом, если ЦАХАЛ будет активно использовать ИИ для выбора цели с последствиями в виде жизни и смерти».

Представители Армии обороны Израиля настаивают, что использование искусственного интеллекта приводит к снижению числа коллатеральных (сопутствующих) жертв, но некоторые эксперты усомнились в этом.

«Существует опасность, что по мере того, как люди начнут полагаться на эти системы, они будут становиться винтиками в механизированном процессе и утратят способность осмысленно оценивать риск причинения вреда гражданскому населению», — подчеркнул Ричард Мойес, глава организации Article 36, выступающей за снижение вреда от использования вооружений.

Ранее Президент РФ Владимир Путин заявил, что нужно обеспечить безопасность и разумность применения технологий ИИ.

autoscroll_news_right_240_400_1
autoscroll_news_right_240_400_2