Artêşa Dewletên Yekbûyî li ser Istixbaratek Hunerî dixebite da ku biryar bide ka kî di şer de alîkariya bijîşkî werdigire

La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés), encargada de los proyectos de los proyectos de innovación del Ejército de Estados Unidos, ha anunciado el desarrollo de una Inteligencia Artificial para ayudar a decidir que soldados heridos en combate deben recibir atención médica en primer lugar y ayudar a tomar otras decisiones “en situaciones estresantes” para las que “no hay una respuesta correcta acordada”. Situaciones en las que, además, el criterio humano puede fallar debido a la existencia de sesgos.

El proyecto recibe el número de ‘In the moment’ (‘En el momento’, en castellano o ITM, por sus siglas en inglés). Según los detalles del programa, la sustitución de los prejuicios humanos por los datos y algoritmos en situaciones de combate puede “ayudar a salvar vidas”.

El programa, no obstante, está en pañales. Se espera que se deshaga gradualmente a lo largo de los próximos tres años y medio.

Una vez se finalice ITM, el plan de DARPA es que sea capaz de ayudar en la toma de decisiones en dos situaciones concretas: en aquellos momentos en los que pequeñas unidades sufran lesiones, y aquellas situaciones en las que un ataque provoque bajas masivas. La AI, además, estará entrenada de acuerdo a las decisiones de expertos en triaje. También se espera desarrollar algoritmos que permitan ayudar a tomar decisiones en situaciones de desastre, como terremotos, según afirmaron funcionarios del ejército a ‘The Washington Post.

En un primer momento, no obstante, el objetivo es que el sistema permita, por ejemplo, identificar todos los recursos que tienen los hospitales cercanos y la disponibilidad de personal médico, para tomar las decisiones debidas. «Los algoritmos informáticos pueden encontrar soluciones que los humanos no pueden», dijo Matt Turek, gerente de programa de ITM, en declaraciones al medio estadounidense.

La Inteligencia Artificial lleva décadas cobrando importancia en el mundo militar. También es una de las principales preocupaciones de los expertos en ética tecnológica. Y es que una máquina, por muy bien entrenada que esté, siempre es probable que sufra caídas. Así lo dejaron claro varios expertos consultados por ABC hace unos meses a propósito del desarrollo de armamento autónomo, en el que la IA es capaz de atacar objetos humanos de forma totalmente independiente.

“No solo es posible que la IA falle, también es posible hacerla fallar”, explica en conversación con este periódico Juan Ignacio Rouyet, experto en IA y ética y profesor de la UNIR.