Den amerikanske hær arbejder på en kunstig intelligens for at afgøre, hvem der skal modtage lægehjælp i kamp

Defense Advanced Research Projects Agency (DARPA), der er ansvarlig for projekterne i den amerikanske hærs innovationsprojekter, har annonceret udviklingen af ​​kunstig intelligens for at hjælpe med at beslutte, hvilke soldater, der er såret i kamp, ​​der skal modtage lægehjælp i første omgang og hjælpe med at træffe andre beslutninger "i stressede situationer", som "der ikke er aftalt korrekt svar". Situationer, hvor den menneskelige dømmekraft desuden kan svigte på grund af fordomme.

Projektet modtager nummeret 'I øjeblikket' ('I øjeblikket', på spansk eller ITM, for dets akronym på engelsk). Ifølge detaljerne i programmet kan udskiftning af menneskelige skævheder med data og algoritmer i kampsituationer "hjælpe med at redde liv."

Programmet er dog i sin vorden. Det forventes gradvist at optrevle i løbet af de næste tre et halvt år.

Når ITM er færdiggjort, er det DARPAs plan, at den skal kunne hjælpe med beslutningstagning i to specifikke situationer: i de øjeblikke, hvor små enheder kommer til skade, og i de situationer, hvor et angreb forårsager massive tab. AI vil også blive trænet i henhold til beslutninger fra triage-eksperter. Det forventes også at udvikle algoritmer, der hjælper med at træffe beslutninger i katastrofesituationer, såsom jordskælv, ifølge hvad hærens embedsmænd fortalte 'The Washington Post.

I første omgang er målet dog, at systemet f.eks. giver mulighed for at identificere alle de ressourcer, som nærliggende hospitaler har, og tilgængeligheden af ​​medicinsk personale, for at træffe de rigtige beslutninger. "Computeralgoritmer kan finde løsninger, som mennesker ikke kan," sagde Matt Turek, ITM-programleder, i udtalelser til de amerikanske medier.

Kunstig intelligens har fået større betydning i den militære verden i årtier. Det er også en af ​​teknologietikernes største bekymringer. Og det er, at en maskine, uanset hvor veltrænet den er, altid er tilbøjelig til at lide fald. Dette blev gjort klart af adskillige eksperter, der blev konsulteret af ABC for et par måneder siden vedrørende udviklingen af ​​autonome våben, hvor AI er i stand til at angribe menneskelige objekter helt uafhængigt.

"Ikke alene er det muligt for AI at fejle, det er også muligt at få det til at mislykkes," forklarer Juan Ignacio Rouyet, ekspert i AI og etik og professor ved UNIR, i samtale med denne avis.