L'Exèrcit dels EUA treballa en una Intel·ligència Artificial per decidir qui rep ajuda mèdica en combat

L'Agència de Projectes de Recerca Avançada de Defensa (DARPA, per les sigles en anglès), encarregada dels projectes dels projectes d'innovació de l'Exèrcit dels Estats Units, ha anunciat el desenvolupament d'una Intel·ligència Artificial per ajudar a decidir quins soldats ferits a combat han de rebre atenció mèdica en primer lloc i ajudar a prendre altres decisions “en situacions estressants” per a les quals “no hi ha una resposta correcta acordada”. Situacions en què, a més, el criteri humà pot fallar a causa de l'existència de biaixos.

El projecte rep el número d''In the moment' ('En el moment', en castellà o ITM, per les sigles en anglès). Segons els detalls del programa, la substitució dels prejudicis humans per les dades i els algoritmes en situacions de combat pot “ajudar a salvar vides”.

El programa, no obstant, està en bolquers. S'espera que es desfaci gradualment al llarg dels propers tres anys i mig.

Un cop finalitzi ITM, el pla de DARPA és que sigui capaç d'ajudar en la presa de decisions en dues situacions concretes: en aquells moments en què petites unitats pateixin lesions, i aquelles situacions en què un atac provoqui baixes massives. L'AI, a més, estarà entrenada segons les decisions d'experts en triatge. També s'espera desenvolupar algorismes que permetin ajudar a prendre decisions en situacions de desastre, com ara terratrèmols, segons van afirmar funcionaris de l'exèrcit a 'The Washington Post.

En un primer moment, però, l'objectiu és que el sistema permeti, per exemple, identificar tots els recursos que tenen els hospitals propers i la disponibilitat de personal mèdic per prendre les decisions degudes. "Els algorismes informàtics poden trobar solucions que els humans no poden", va dir Matt Turek, gerent de programa d'ITM, en declaracions al medi nord-americà.

La Intel·ligència Artificial fa dècades que cobra importància en el món militar. També és una de les preocupacions principals dels experts en ètica tecnològica. I és que una màquina, per molt ben entrenada que hi sigui, sempre és probable que pateixi caigudes. Així ho van deixar clar diversos experts consultats per ABC fa uns mesos a propòsit del desenvolupament d'armament autònom, en què la IA és capaç d'atacar objectes humans de manera totalment independent.

“No només és possible que la IA falli, també és possible fer-la fallar”, explica en conversa amb aquest diari Juan Ignacio Rouyet, expert en IA i ètica i professor de la UNIR.