III Fórum Europeo de Inteligencia Artificial

Los expertos subrayan la importancia del respeto de los derechos humanos en el uso de IA en situaciones de guerra

Subrayan que las decisiones dependen de la inteligencia artificial tienden a más violencia y se llega a un escenario nuclear en las decisiones

Un momento de la mesa redonda

Un momento de la mesa redonda / Alex Domínguez

J. A. Martínez

La inteligencia artificial en tiempos de guerra. Mientras unos países mantienen unas limitaciones éticas para aplicar las nuevas tecnologías en su armamento, otras naciones no están respetando estas limitaciones. Decisiones que se adoptan en décimas de segundo y para las que estos sistemas pueden ayudar, aunque una de las claves para garantizar el respeto de los derechos humanos es poder explicar cómo ha tomado el algoritmo la decisión. Así se ha puesto de manifiesto durante la mesa dedicada a esta materia en el marco del III Fórum Europeo de Inteligencia Artificial, organizado por Información, Prensa Ibérica, ELLIS Alicante, Encuentros NOW y la Real Academia de Ingeniería de España. El III Fórum de Inteligencia Artificial ha analizado el desafío del uso de estas nuevas tecnologías en los campos de ciberseguridad y defensa global. Una mesa redonda en la que han participado Ángel Gómez de Ágreda, miembro fundador y de la junta directiva del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA); el coronel Javier Bermejo Higuera, jefe del departamento TICS de la Subdirección de Sistemas Terrestres del INTA; y Eugenia Hernández, directora del UNTIT, Inteligencia Analysis Unit of the SEI and International Relations at UAM. La mesa ha estado moderada por el director del CENID Manuel Palomar. 

Gómez de Ágreda ha subrayado cómo habitualmente las tecnologías militares no cuentan con una versión beta, sino que se aplican directamente al campo de batalla, directamente y se aplica al ámbito civil. Por este motivo, incidió en la importancia tener en cuenta las implicaciones éticas y morales que este campo plantea. "Cuando se deja a la inteligencia artificial tomar las decisiones, la guerra escala más rápidamente, se vuelve más violenta y se llega a un enfrentamiento nuclear en las simulaciones", advirtió. Mientras que hay una voluntad regulatoria en el uso de inteligencia artificial para que no se dejen esos valores éticos, Gómez de Ágreda alertó de que son precisamente en los sistemas más peligrosos donde no existe ese consenso. En este contexto se refirió a los sistemas de armas autónomos letales conocidos como "robots asesinos". La carrera armamentística se centra en la producción tecnológica", dijo, insistiendo en la necesidad de que los seres humanos no se conviertan en el chivo expiatorio de decisiones que toman las máquinas en escenarios bélicos. A su juicio, la letalidad no es característica de estos sistemas, sino de la guerra. El uso de estos sistemas se justifican en poder distinguir objetivos civiles los militares y reducir el estrés del combatiente que debe tomar decisiones a vida o muerte a veces en décimas de segundo, Gómez de Ágreda incidió en que ninguna de estas dos hipótesis es cierta. Frente a la diferencia tecnológica entre occidente y China, destacó que la ventaja del primero es que tiene un enfoque más flexible que le permite sortear mejor los problemas a largo plazo. 

Los expertos durante la charla

Los expertos durante la charla / Alex Domínguez

Por su parte para el coronel Javier Bermejo, uno de los retos del uso de la inteligencia artificial en materia de defensa está en la explicabilidad y la transparencia de la toma de decisiones, especialmente valorando de dónde procede la información. Bermejo comenzó analizando la gran diferencia del gasto en inversión en tecnologías disruptivas aplicadas a la Defensa, la ciberseguridad y la robótica entre Estados Unidos y Europa. Un total de 135.000 millones de dólares al año en el caso norteamericano, frente a 8.000 millones en el viejo continente. En su opinión, la inteligencia artificial no es una capacidad militar por sí sola, sino que supone una mejora en las prestaciones en áreas como la guerra tecnológica, la logística predictiva y la ciberseguridad. Según explicó, el mando sigue adoptado la decisión, pero se le dan distintos cursos de acción que le ayudan a hacerlo y a plantear opciones. Entre las distintas iniciativas de la Defensa Española citó el Centro Tecnológico de Defensa Experimental (CETEDEX) de Jaén, que se centra en el uso de drones y la navegación. Entre los próximos desafíos se encuentran el hacer frente a enjambres de drones controlados con inteligencia artificial o la investigación en sistemas de navegación sin señales de satélite usando algoritmos avanzados. Otros proyectos en los que se está trabajando a nivel europeo a través del Instituto Nacional de Técnica Aeroespacial (INTA) se centran en la mejora de la navegación de misiles hipersónicos usando la IA, así como reconocimiento automático de objetivos.

Asimismo, Eugenia Hernández subrayó la importancia de este uso armamentístico de la inteligencia artificial no para generar la guerra, sino para garantizar la paz. "Estamos en un momento de competición de poder, donde grandes potencias rompen las reglas internacionales para imponer su realidad", poniendo como ejemplo el escenario bélico de la guerra de Ucrania. Por este motivo, subrayó la importancia de tener una autonomía estratégica para defendernos y desarrollar nuestra tecnología. Frente a los tradicionales escenarios de combate por tierra, mar y aire en los que se desarrollaba una guerra, aparecen nuevos escenarios como el ciberespacio y la red satelital.

Tracking Pixel Contents