Ameriška vojska se ukvarja z umetno inteligenco, da bi odločila, kdo prejme zdravniško pomoč v boju

Agencija za obrambne napredne raziskovalne projekte (DARPA, za njeno akronim v angleščini), ki je zadolžena za projekte inovacijskih projektov vojske Združenih držav Amerike, je napovedala razvoj umetne inteligence, ki bo pomagala pri odločanju, kateri vojaki, ranjeni v borcih, naj prejmejo zdravniško pomoč. najprej skrbi in pomaga pri sprejemanju drugih odločitev »v stresnih situacijah«, za katere »ni dogovorjenega pravilnega odgovora«. Situacije, v katerih poleg tega lahko človeški kriteriji odpovejo zaradi obstoja pristranskosti.

Projekt prejme številko 'In the moment' ('Trenutno', v španščini ali ITM, za akronim v angleščini). Glede na podrobnosti programa lahko zamenjava človeških pristranskosti s podatki in algoritmi v bojnih situacijah "pomaga reševati življenja."

Program pa je v povojih. Pričakuje se, da se bo v naslednjih treh letih in pol postopoma razpletlo.

Ko bo ITM dokončan, je načrt DARPA, da bo lahko pomagal pri odločanju v dveh specifičnih situacijah: v tistih trenutkih, ko so majhne enote poškodovane, in v tistih situacijah, v katerih napad povzroči velike žrtve. Umetna inteligenca se bo usposobila tudi po odločitvah strokovnjakov za triažo. Pričakuje se tudi, da bo razvil algoritme, ki bodo pomagali pri odločanju v katastrofalnih situacijah, kot so potresi, so povedali vojaški uradniki za Washington Post.

Sprva pa je cilj, da sistem omogoči, na primer, prepoznavanje vseh virov, ki jih imajo bližnje bolnišnice, in razpoložljivost zdravstvenega osebja, da bi lahko sprejeli prave odločitve. "Računalniški algoritmi lahko najdejo rešitve, ki jih ljudje ne morejo," je za ameriške medije povedal Matt Turek, programski vodja ITM.

Umetna inteligenca že desetletja pridobiva pomen v vojaškem svetu. To je tudi ena glavnih skrbi strokovnjakov za tehnološko etiko. In to je, da stroj, ne glede na to, kako dobro je usposobljen, vedno trpi zaradi padcev. To je jasno povedalo več strokovnjakov, s katerimi se je ABC pred nekaj meseci posvetoval glede razvoja avtonomnega orožja, pri katerem je AI sposobna popolnoma neodvisno napadati človeške predmete.

»Ne samo, da je možno, da umetna inteligenca propade, mogoče jo je tudi narediti,« v pogovoru za ta časnik razlaga Juan Ignacio Rouyet, strokovnjak za umetno inteligenco in etiko ter profesor na UNIR.