Armia USA pracuje nad sztuczną inteligencją, aby decydować, kto otrzyma pomoc medyczną w walce

Agencja Zaawansowanych Projektów Badawczych Obrony (DARPA), odpowiedzialna za projekty innowacyjne armii Stanów Zjednoczonych, ogłosiła rozwój sztucznej inteligencji, która pomoże zdecydować, którzy ranni żołnierze w bojownikach powinni otrzymać pomoc medyczną w pierwszej kolejności i pomóc w podejmowaniu innych decyzji „w sytuacjach stresowych” dla którego „nie ma uzgodnionej prawidłowej odpowiedzi”. Sytuacje, w których ponadto ludzki osąd może zawieść ze względu na istnienie uprzedzeń.

Projekt otrzymuje numer „W tej chwili” („W tej chwili” w języku hiszpańskim lub ITM, od jego akronimu w języku angielskim). Według szczegółów programu zastąpienie ludzkich uprzedzeń danymi i algorytmami w sytuacjach bojowych może „pomóc w ratowaniu życia”.

Program jest jednak w powijakach. Oczekuje się, że będzie on stopniowo demontowany w ciągu najbliższych trzech i pół roku.

Plan DARPA zakłada, że ​​po ukończeniu ITM będzie ona w stanie pomóc w podejmowaniu decyzji w dwóch konkretnych sytuacjach: w momentach, w których małe jednostki doznają obrażeń, oraz w sytuacjach, w których atak powoduje masowe straty. Sztuczna inteligencja będzie również szkolona zgodnie z decyzjami ekspertów segregujących. Oczekuje się, że zostaną opracowane algorytmy, które pomogą w podejmowaniu decyzji w sytuacjach katastrof, takich jak trzęsienia ziemi, powiedzieli urzędnikom armii „The Washington Post”.

Na początku jednak celem jest, aby system umożliwiał np. identyfikację wszelkich zasobów, którymi dysponują pobliskie szpitale oraz dostępność personelu medycznego, w celu podjęcia odpowiednich decyzji. „Algorytmy komputerowe potrafią znaleźć rozwiązania, których człowiek nie jest w stanie znaleźć” – powiedział w oświadczeniu dla amerykańskich mediów Matt Turek, kierownik programu ITM.

Sztuczna inteligencja od dziesięcioleci zyskuje na znaczeniu w świecie militarnym. Jest to również jedno z głównych zainteresowań etyków technologii. A maszyna, niezależnie od tego, jak dobrze jest wyszkolona, ​​zawsze jest narażona na upadki. Wyjaśniło to kilku ekspertów, z którymi ABC konsultowało się kilka miesięcy temu w sprawie rozwoju broni autonomicznej, w której sztuczna inteligencja jest w stanie całkowicie niezależnie atakować obiekty ludzkie.

„Nie tylko możliwa jest porażka sztucznej inteligencji, ale można ją również spowodować” – wyjaśnia w rozmowie z tą gazetą Juan Ignacio Rouyet, ekspert w dziedzinie sztucznej inteligencji i etyki oraz profesor UNIR.