На полях сражений всё чаще применяют искусственный интеллект, который определяет цели без участия человека

На полях сражений всё чаще применяют искусственный интеллект, который определяет цели без участия человека
Буквально за последние несколько месяцев картина, которую можно увидеть на современном поле боя, изменилась до неузнаваемости. Сюжеты, которые раньше снимались только в фантастических боевиках, уже стали реальностью. На данный момент начали применяться роботизированные системы, которые самостоятельно могут определять цели для атаки и уничтожения.

Системы искусственного интеллекта определяют, какие отдельные люди должны быть ликвидированы, и даже, сколько мирных жителей должно погибнуть вместе с ними — в качестве сопутствующих потерь.

Украинский фронт уже насыщен тысячами дронов, в том числе новыми квадрокоптерами Saker Scout, которые «могут самостоятельно находить, идентифицировать и атаковать различные военные объекты. Они разработаны для ведения боевых действий без контроля со стороны человека и, как утверждается, устойчивые к РЭБ.

В свою очередь, Израиль развязал ещё один способ так называемой алгоритмической войны. Система под названием Lavender собирает все типы данных, от использования мобильного телефона до членства в группах WhatsApp, чтобы установить рейтинг от 1 до 100 вероятного членства в ХАМАС. За людьми с самым высоким рейтингом следит специальная система, которая посылает сигнал, когда они возвращаются в свои дома, где их могут разбомбить. То есть, всё отдаётся на откуп машинным алгоритмом. Никакой проверки того, реально ли человек входил в боевое крыло ХАМАС, или это всё набор данных, так интерпретированных ИИ, не проводится.

На данный момент армии всех крупных стран работают над созданием своих эквивалентов «бойцов и машин» с искусственным интеллектом. При этом, в исследованиях безопасности ведутся споры о том, являются ли такие технологии эволюционными или революционными.

Сфера применения ИИ в военной сфере быстро расширяется: от роёв дронов до информационной войны и не только, и каждый новый тип вызывает новые вопросы. Дилеммы возникают даже тогда, когда ИИ просто предоставляет варианты командиру-человеку. Ведь выбрал варианты для ведения боевых действий именно искусственный интеллект, предоставляя возможность человеку делать выбор из уже выбранного машинным способом.

Проблемы использования ИИ в войне выходят за рамки технических. Смогут ли стратегии, основанные на искусственном интеллекте, достичь желаемых результатов? Или же нам суждено воплотить в жизнь мораль каждой научно-фантастической истории, в которой слуга-машина в конечном итоге вредит своему хозяину-человеку? Эти вопросы пока остаются открытыми..