El Ejército de EE.UU. trabaja en una Inteligencia Artificial para decidir quién recibe ayuda médica en combate

La Agencia de Proyectos de Investigación Avanzada de Defensa del país norteamericano está desarrollando un nuevo sistema que permitirá tomar decisiones complicadas «en situaciones estresantes» de combate

DARPA

R. A.

La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés), encargada de los proyectos de innovación del Ejército de Estados Unidos, ha anunciado el desarrollo de una Inteligencia Artificial para ayudar a decidir qué soldados heridos en combate deben recibir atención médica en primer lugar y ayude a tomar otras decisiones «en situaciones estresantes» para las que «no hay una respuesta correcta acordada». Situaciones en las que, además, el criterio humano puede fallar debido a la existencia de sesgos.

El proyecto recibe el nombre de ' In the moment ' ('En el momento', en castellano o ITM, por sus siglas en inglés). Según los detalles del programa, la sustitución de los prejuicios humanos por los datos y algoritmos en situaciones de combate puede «ayudar a salvar vidas». El programa, no obstante, está en pañales. Se espera que se vaya desarrollando progesivamente a los largo de los próximos tres años y medio.

Una vez se finalice ITM , el plan de DARPA es que sea capaz de ayudar en la toma de decisiones en dos situaciones concretas: en aquellos momentos en los que pequeñas unidades sufran lesiones, y aquellas situaciones en las que un ataque provoque bajas masivas . La IA, además, será entrenada de acuerdo a las decisiones de expertos en triaje. También se espera desarrollar algoritmos que permitan ayudar a tomar decisiones en situaciones de desastre, como terremotos, según afirmaron funcionarios del ejército a 'The Washington Post.

En un primer momento, no obstante, el objetivo es que el sistema permita, por ejemplo, identificar todos los recursos que tienen los hospitales cercanos y la disponibilidad de personal médico, para tomar las decisiones debidas. «Los algoritmos informáticos pueden encontrar soluciones que los humanos no pueden», afirma Matt Turek, gerente de programa de ITM, en declaraciones al medio estadounidense.

La Inteligencia Artificial lleva décadas cobrando importancia en el mundo militar. También es una de las principales preocupaciones de expertos en ética tecnológica. Y es que una máquina, por muy bien entrenada que esté, siempre es susceptible de sufrir fallos. Así lo dejaron claro varios expertos consultados por ABC hace unos meses a propósito del desarrollo de armamento autónomo , en el que la IA es capaz de atacar objetivos humanos de forma plenamente independiente.

«No solo es posible que la IA falle, también es posible hacerla fallar», explicaba en conversación con este periódico Juan Ignacio Rouyet, experto en IA y ética y profesor de UNIR.

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación