Армия США работает над искусственным интеллектом, чтобы решать, кому оказывать медицинскую помощь в бою

Агентство перспективных оборонных исследовательских проектов (DARPA, его аббревиатура на английском языке), отвечающее за проекты инновационных проектов армии США, объявило о разработке искусственного интеллекта, который поможет решить, какие солдаты, раненые в истребителях, должны получить медицинскую помощь. заботиться в первую очередь и помогать принимать другие решения «в стрессовых ситуациях», для которых «нет согласованного правильного ответа». Ситуации, в которых, кроме того, человеческие критерии могут не сработать из-за наличия предубеждений.

Проект получает номер «In the moment» («На данный момент» на испанском языке или ITM по его аббревиатуре на английском языке). Согласно деталям программы, замена человеческих предубеждений данными и алгоритмами в боевых ситуациях может «помочь спасти жизни».

Однако программа находится в зачаточном состоянии. Ожидается, что в течение следующих трех с половиной лет он будет постепенно распутываться.

Как только ITM будет завершен, DARPA планирует, что он сможет помочь в принятии решений в двух конкретных ситуациях: в те моменты, когда небольшие подразделения получают ранения, и в тех ситуациях, когда атака приводит к массовым потерям. ИИ также будет обучаться в соответствии с решениями экспертов по сортировке. Ожидается также разработка алгоритмов, которые помогут принимать решения в чрезвычайных ситуациях, таких как землетрясения, как сообщили представители армии The Washington Post.

Однако изначально цель системы состоит в том, чтобы позволить, например, определить все ресурсы, которые есть в близлежащих больницах, и наличие медицинского персонала для принятия правильных решений. «Компьютерные алгоритмы могут находить решения, недоступные людям», — заявил американским СМИ Мэтт Турек, руководитель программы ITM.

Искусственный интеллект на протяжении десятилетий приобретает все большее значение в военном мире. Это также одна из главных проблем специалистов по технологической этике. И дело в том, что машина, как бы хорошо она ни была обучена, всегда может упасть. Об этом заявили несколько экспертов, с которыми ABC консультировалась несколько месяцев назад по поводу разработки автономного оружия, в котором ИИ способен совершенно независимо атаковать человеческие объекты.

«Не только ИИ может потерпеть неудачу, но и сделать так, чтобы он потерпел неудачу», — объясняет Хуан Игнасио Руйе, эксперт по ИИ и этике и профессор UNIR, в разговоре с этой газетой.