ASV armija strādā pie mākslīgā intelekta, lai izlemtu, kurš saņem medicīnisko palīdzību kaujas laikā

Aizsardzības progresīvo pētījumu projektu aģentūra (DARPA, tā saīsinājums angļu valodā), kas atbild par ASV armijas inovāciju projektu projektiem, ir paziņojusi par mākslīgā intelekta izstrādi, lai palīdzētu izlemt, kuriem kaujiniekos ievainotajiem karavīriem ir jāsaņem medicīniskā palīdzība. vispirms rūpēties un palīdzēt pieņemt citus lēmumus “stresa situācijās”, uz kurām “nav saskaņotas pareizās atbildes”. Situācijas, kurās cilvēka kritēriji var neizdoties, jo pastāv neobjektivitāte.

Projekts saņem numuru "In the moment" ("Šobrīd", spāņu valodā vai ITM, tā saīsinājumam angļu valodā). Saskaņā ar programmas informāciju, cilvēku aizspriedumu aizstāšana ar datiem un algoritmiem kaujas situācijās var "palīdzēt glābt dzīvības".

Tomēr programma ir sākuma stadijā. Paredzams, ka nākamo trīsarpus gadu laikā tas pakāpeniski atrisināsies.

Kad ITM būs pabeigts, DARPA plāns ir tāds, ka tas spēs palīdzēt lēmumu pieņemšanā divās konkrētās situācijās: brīžos, kad nelielas vienības gūst ievainojumus, un situācijās, kad uzbrukums izraisa milzīgus upurus. AI tiks apmācīts arī saskaņā ar šķirošanas ekspertu lēmumiem. Paredzams, ka tiks izstrādāti arī algoritmi, kas palīdzēs pieņemt lēmumus katastrofu situācijās, piemēram, zemestrīcēs, saskaņā ar armijas amatpersonu teikto "The Washington Post".

Taču sākotnēji mērķis ir, lai sistēma ļautu, piemēram, apzināt visus tuvējo slimnīcu resursus un medicīnas personāla pieejamību, lai pieņemtu pareizos lēmumus. "Datoru algoritmi var atrast risinājumus, ko cilvēki nespēj," ASV medijiem sacīja ITM programmas vadītājs Mets Tureks.

Mākslīgais intelekts ir ieguvis nozīmi militārajā pasaulē gadu desmitiem. Tā ir arī viena no galvenajām tehnoloģiju ētikas ekspertu bažām. Un tas ir tāds, ka mašīna, neatkarīgi no tā, cik labi tā ir apmācīta, vienmēr var ciest no kritieniem. To skaidri norādīja vairāki eksperti, ar kuriem pirms dažiem mēnešiem konsultējās ABC par autonomo ieroču izstrādi, kuros AI spēj pilnīgi neatkarīgi uzbrukt cilvēka objektiem.

"AI ir iespējams ne tikai piedzīvot neveiksmi, bet arī panākt, lai tas neizdodas," sarunā ar šo laikrakstu skaidro AI un ētikas eksperts un UNIR profesors Huans Ignasio Rujē.