АҚШ армиясы ұрыста кімге медициналық көмек көрсетілетінін анықтау үшін жасанды интеллектпен жұмыс істейді

Америка Құрама Штаттары армиясының инновациялық жобаларының жобаларына жауапты Қорғаныстағы жетілдірілген зерттеу жобалары агенттігі (DARPA, ағылшын тіліндегі аббревиатурасы) жауынгерлерде жараланған сарбаздардың қайсысы медициналық көмек алу керектігін шешуге көмектесетін Жасанды интеллект әзірлегенін жариялады. алдымен қамқорлық жасаңыз және «келісілген дұрыс жауап жоқ» «стресстік жағдайларда» басқа шешімдер қабылдауға көмектесіңіз. Сонымен қатар, адам критерийлері қиғаштықтардың болуына байланысты сәтсіздікке ұшырауы мүмкін жағдайлар.

Жоба «In the moment» («Қазіргі уақытта», испан тілінде немесе ITM, ағылшын тіліндегі аббревиатурасы үшін) нөмірін алады. Бағдарламаның егжей-тегжейлеріне сәйкес, жауынгерлік жағдайдағы адамның бейімділігін деректермен және алгоритмдермен ауыстыру «өмірді сақтауға көмектеседі».

Дегенмен, бағдарлама бастапқы кезеңде. Ол алдағы үш жарым жылда біртіндеп шешіледі деп күтілуде.

ITM аяқталғаннан кейін, DARPA жоспары ол екі нақты жағдайда шешім қабылдауға көмектесе алады: шағын бөлімшелер жарақат алған сәтте және шабуыл үлкен шығынға әкелетін жағдайларда. Сондай-ақ AI триаж сарапшыларының шешімдері бойынша оқытылады. Сондай-ақ, армия шенеуніктерінің «Вашингтон Постқа» хабарлауынша, жер сілкінісі сияқты апатты жағдайларда шешім қабылдауға көмектесетін алгоритмдер әзірленеді деп күтілуде.

Алайда, бастапқыда мақсат жүйенің, мысалы, жақын маңдағы ауруханалардағы барлық ресурстарды және дұрыс шешім қабылдау үшін медициналық персоналдың қолжетімділігін анықтауға мүмкіндік беруі. «Компьютерлік алгоритмдер адамдар жасай алмайтын шешімдерді таба алады», - деді Мэтт Турек, ITM бағдарламасының менеджері американдық БАҚ-қа.

Жасанды интеллект әскери әлемде ондаған жылдар бойы маңыздылыққа ие болды. Бұл сонымен қатар технологиялық этика саласындағы сарапшылардың басты мәселелерінің бірі. Бұл машина қаншалықты жақсы дайындалғанына қарамастан, әрқашан құлап қалуы мүмкін. Мұны бірнеше ай бұрын ABC кеңес берген бірнеше сарапшылар AI адам объектілеріне толығымен дербес шабуыл жасай алатын автономды қаруды әзірлеуге қатысты түсіндірді.

Осы газетпен сұхбатында AI және этика бойынша сарапшы және UNIR профессоры Хуан Игнасио Руйе: «AI сәтсіздікке ұшырауы ғана емес, оны сәтсіздікке ұшыратуы да мүмкін», - деп түсіндіреді.