L'esercito americano lavora su un'intelligenza artificiale per decidere chi riceve assistenza medica in combattimento

La Defense Advanced Research Projects Agency (DARPA, per il suo acronimo in inglese), responsabile dei progetti dei progetti di innovazione dell'esercito degli Stati Uniti, ha annunciato lo sviluppo di un'Intelligenza Artificiale per aiutare a decidere quali soldati feriti nei combattenti dovrebbero ricevere cure mediche prendersi cura prima di tutto e aiutare a prendere altre decisioni “in situazioni stressanti” per le quali “non esiste una risposta corretta concordata”. Situazioni in cui, inoltre, i criteri umani possono fallire a causa dell'esistenza di pregiudizi.

Il progetto riceve il numero di "In the moment" ("Al momento", in spagnolo o ITM, per il suo acronimo in inglese). Secondo i dettagli del programma, la sostituzione dei pregiudizi umani con dati e algoritmi in situazioni di combattimento può "aiutare a salvare vite".

Il programma, tuttavia, è agli inizi. Si prevede che si disgregherà gradualmente nei prossimi tre anni e mezzo.

Una volta finalizzato ITM, il piano di DARPA è che sarà in grado di aiutare il processo decisionale in due situazioni specifiche: nei momenti in cui piccole unità subiscono lesioni e in quelle situazioni in cui un attacco provoca enormi perdite. L'IA sarà anche addestrata secondo le decisioni degli esperti di triage. Si prevede inoltre di sviluppare algoritmi che aiutino a prendere decisioni in situazioni di disastro, come i terremoti, secondo i funzionari dell'esercito hanno detto al "The Washington Post".

Inizialmente, però, l'obiettivo è che il sistema consenta, ad esempio, di individuare tutte le risorse di cui dispongono gli ospedali vicini e la disponibilità di personale medico, al fine di prendere le giuste decisioni. "Gli algoritmi dei computer possono trovare soluzioni che gli esseri umani non possono", ha detto ai media statunitensi Matt Turek, responsabile del programma ITM.

L'intelligenza artificiale sta acquisendo importanza nel mondo militare da decenni. È anche una delle principali preoccupazioni degli esperti di etica tecnologica. Ed è che una macchina, per quanto ben allenata sia, rischia sempre di cadere. Lo hanno chiarito diversi esperti consultati da ABC qualche mese fa in merito allo sviluppo di armi autonome, nelle quali l'IA è in grado di attaccare oggetti umani in maniera del tutto indipendente.

"Non solo è possibile che l'IA fallisca, è anche possibile farla fallire", spiega Juan Ignacio Rouyet, esperto di IA ed etica e professore all'UNIR, in una conversazione con questo giornale.