L'armée américaine travaille sur une intelligence artificielle pour décider qui reçoit une aide médicale au combat

La Defense Advanced Research Projects Agency (DARPA, pour son sigle en anglais), en charge des projets des projets d'innovation de l'armée américaine, a annoncé le développement d'une intelligence artificielle pour aider à décider quels soldats blessés dans les combattants devraient recevoir des soins médicaux l'attention d'abord et aider à prendre d'autres décisions "dans des situations stressantes" pour lesquelles "il n'y a pas de réponse correcte convenue". Des situations dans lesquelles, en plus, les critères humains peuvent échouer du fait de l'existence de biais.

Le projet reçoit le numéro de 'In the moment' ('At the moment', en espagnol ou ITM, pour son sigle en anglais). Selon les détails du programme, le remplacement des préjugés humains par des données et des algorithmes dans les situations de combat peut "aider à sauver des vies".

Le programme n'en est cependant qu'à ses balbutiements. On s'attend à ce qu'il s'effondre progressivement au cours des trois prochaines années et demie.

Une fois l'ITM finalisé, le plan de la DARPA est qu'il sera en mesure d'aider à la prise de décision dans deux situations spécifiques : dans les moments où de petites unités subissent des blessures et dans les situations où une attaque cause des pertes massives. L'IA sera également formée selon les décisions des experts en triage. Il est également prévu de développer des algorithmes qui aident à prendre des décisions dans des situations de catastrophe, telles que des tremblements de terre, selon des responsables de l'armée déclarés au 'Washington Post'.

Dans un premier temps, cependant, l'objectif est que le système permette, par exemple, d'identifier toutes les ressources dont disposent les hôpitaux à proximité et la disponibilité du personnel médical, afin de prendre les bonnes décisions. "Les algorithmes informatiques peuvent trouver des solutions que les humains ne peuvent pas", a déclaré Matt Turek, responsable du programme ITM, aux médias américains.

L'intelligence artificielle gagne en importance dans le monde militaire depuis des décennies. C'est aussi l'une des principales préoccupations des experts en éthique des technologies. Et c'est qu'une machine, aussi bien entraînée soit-elle, est toujours susceptible de subir des chutes. Cela a été précisé par plusieurs experts consultés par ABC il y a quelques mois concernant le développement d'armes autonomes, dans lesquelles l'IA est capable d'attaquer des objets humains de manière totalement indépendante.

"Non seulement il est possible que l'IA échoue, mais il est également possible de la faire échouer", explique Juan Ignacio Rouyet, expert en IA et en éthique et professeur à l'UNIR, dans une conversation avec ce journal.