Americká armáda pracuje na umelej inteligencii, aby rozhodla, kto dostane lekársku pomoc v boji

Agentúra pre obranné pokročilé výskumné projekty (DARPA, skratka v angličtine), zodpovedná za projekty inovačných projektov armády Spojených štátov amerických, oznámila vývoj umelej inteligencie, ktorá má pomôcť rozhodnúť, ktorí vojaci zranení v stíhačkách by mali dostať lekársku pomoc. starostlivosť a pomoc pri prijímaní ďalších rozhodnutí „v stresových situáciách“, na ktoré „neexistuje žiadna dohodnutá správna odpoveď“. Situácie, v ktorých navyše ľudské kritériá môžu zlyhať v dôsledku existencie predsudkov.

Projekt dostane číslo „In the moment“ („Momentálne“, v španielčine alebo ITM, skratka v angličtine). Podľa podrobností o programe môže nahradenie ľudských predsudkov údajmi a algoritmami v bojových situáciách „pomôcť zachrániť životy“.

Program je však v plienkach. Očakáva sa, že sa postupne rozmotá v priebehu nasledujúceho tri a pol roka.

Keď bude ITM dokončená, plán DARPA je taký, že bude schopná pomôcť pri rozhodovaní v dvoch špecifických situáciách: v tých chvíľach, keď malé jednotky utrpia zranenia, a v tých situáciách, keď útok spôsobí obrovské straty na životoch. AI bude tiež vyškolená podľa rozhodnutí expertov na triedenie. Očakáva sa tiež, že vyvinie algoritmy, ktoré pomôžu pri rozhodovaní v katastrofických situáciách, ako sú zemetrasenia, podľa armádnych predstaviteľov pre The Washington Post.

Na začiatku je však cieľom, aby systém umožnil napríklad identifikovať všetky zdroje, ktoré majú okolité nemocnice, a dostupnosť zdravotníckeho personálu, aby bolo možné robiť správne rozhodnutia. „Počítačové algoritmy dokážu nájsť riešenia, ktoré ľudia nedokážu,“ povedal pre americké médiá Matt Turek, programový manažér ITM.

Umelá inteligencia naberá na význame vo vojenskom svete už desaťročia. Je to tiež jeden z hlavných problémov odborníkov na technologickú etiku. A je to tak, že stroj, bez ohľadu na to, ako dobre je trénovaný, vždy pravdepodobne utrpí pád. Ujasnili to viacerí experti, s ktorými ABC pred niekoľkými mesiacmi konzultovalo vývoj autonómnych zbraní, v ktorých je AI schopná útočiť na ľudské objekty úplne nezávisle.

„Nielen, že je možné, že AI zlyhá, je tiež možné, že zlyhá,“ vysvetľuje Juan Ignacio Rouyet, odborník na AI a etiku a profesor na UNIR, v rozhovore pre tieto noviny.