La usona armeo laboras pri Artefarita Inteligenteco por decidi kiu ricevas medicinan helpon en batalo

La Defense Advanced Research Projects Agency (DARPA, por sia akronimo en la angla), zorge pri la projektoj de la novigaj projektoj de la Usona Armeo, anoncis la disvolviĝon de Artefarita Inteligenteco por helpi decidi, kiuj soldatoj vunditaj en batalantoj devas ricevi medicinan. zorgu unue kaj helpu fari aliajn decidojn "en streĉaj situacioj" por kiuj "ne ekzistas interkonsentita ĝusta respondo". Situacioj en kiuj krome homaj kriterioj povas malsukcesi pro la ekzisto de antaŭjuĝoj.

La projekto ricevas la numeron de 'En la momento' ('En la momento', en la hispana aŭ ITM, por ĝia akronimo en la angla). Laŭ la detaloj de la programo, anstataŭigi homajn antaŭjuĝojn per datumoj kaj algoritmoj en batalaj situacioj povas "helpi savi vivojn".

La programo tamen estas en sia infanaĝo. Ĝi estas atendita iom post iom malimpliki dum la venontaj tri jaroj kaj duono.

Post kiam ITM estas kompleta, la plano de DARPA estas ke ĝi povu helpi decidi en du specifaj situacioj: kiam malgrandaj unuoj suferspertas vundon, kaj kiam atako kaŭzas masivajn viktimojn. La AI ankaŭ estos trejnita laŭ la decidoj de triaj spertuloj. Ĝi ankaŭ atendas disvolvi algoritmojn, kiuj helpas fari decidojn en katastrofaj situacioj, kiel tertremoj, laŭ la armeaj oficialuloj diris al "The Washington Post".

Komence, tamen, la celo estas, ke la sistemo ebligu, ekzemple, identigi ĉiujn rimedojn, kiujn havas proksimaj hospitaloj kaj la haveblecon de medicina dungitaro, por fari la ĝustajn decidojn. "Komputilaj algoritmoj povas trovi solvojn, kiujn homoj ne povas," diris al usonaj amaskomunikiloj Matt Turek, programestro de ITM.

Artefarita Inteligenteco akiras gravecon en la armea mondo dum jardekoj. Ĝi ankaŭ estas unu el la ĉefaj zorgoj de spertuloj pri teknologia etiko. Kaj estas, ke maŝino, kiom ajn bone trejnita ĝi estas, ĉiam verŝajne suferos falojn. Ĉi tio estis klarigita de pluraj fakuloj konsultitaj de ABC antaŭ kelkaj monatoj pri la disvolviĝo de aŭtonomaj armiloj, en kiuj la AI kapablas ataki homajn objektojn tute sendepende.

"Ne nur eblas ke AI malsukcesu, ankaŭ eblas malsukcesigi ĝin", klarigas Juan Ignacio Rouyet, fakulo pri AI kaj etiko kaj profesoro ĉe UNIR, en konversacio kun ĉi tiu ĵurnalo.