Inteligencia artificial para simulacros de ataques, el maletín nuclear de Putin o `cheguet´ y la mano del muerto´

El creciente uso de esta tecnología lleva a otro nivel la tensión entre EE.UU. y Rusia, mientras en la televisión rusa se muestra como sería un ataque con misiles al resto de Europa que recuerda a la `Teoría del hombre loco´ de Nixon

La amenaza para los expertos se deja ver a través del dispositivo semiautomatizado ruso y de una falsa alarma que casi inicia la Tercera Guerra Mundial

Captura de ‘Plan A’, un simulacro de ataques nucleares entre EE.UU. y Rusia realizado por un grupo de expertos de la Universidad de Princeton valiéndose de la IA. El estudio revelaba que el resultado supondría 34 millones de muertos y 57 millones de heridos

Alexia Columba Jerez

Esta funcionalidad es sólo para registrados

La que es considerada la muñeca rusa de acero de Putin, Margarita Simonian , directora del canal de noticias ruso Russia Today, afirmaba la semana pasada: «O perdemos en Ucrania o comienza la Tercera Guerra Mundial. Y creo que la posibilidad de una Tercera Guerra Mundial es más realista» . Para esta periodista, «la idea de que todo terminará en un ataque nuclear es el escenario más probable, quizás inevitable». Así se suma otro intento de propaganda disuasoria de Putin para alimentar la escalada nuclear. Una amenaza ya no tan lejana y de consecuencias inimaginables en la que cada vez cobra más protagonismo la inteligencia artificial (IA) y su evolución con el GPT-3 con un potencial de disrupción.

¿Redobla el uso de esta tecnología el riesgo de una guerra nuclear? Un informe de la corporación Rand establecía que los avances en IA están habilitando capacidades que antes no eran factibles, «lo que podría exacerbar la confrontación que existió en la Guerra Fría. Por entonces la destrucción mutua asegurada generó estabilidad estratégica al reducir los incentivos para que los dos bloques adoptaran medidas que pudieran derivar en una guerra nuclear». Pero el escenario cambió después de que Trump decidiera en 2019 la ruptura del tratado de armas nucleares que Washington firmó en 1987 con Moscú . Por supuesto, Putin no iba a quedarse atrás.

Las televisiones han llegado a especular sobre los resultados del uso del arsenal ruso si se desafían las intenciones del Kremlin . Ejemplo de ello es el torpedo nuclear de nombre Poseidón, que ahogaría a Gran Bretaña bajo una ola gigante de 500 metros de agua de mar radiactiva . Alguno hablan de que Putin está usando `la Teoría del hombre loco´ . Una estrategia que fue descrita por Nicolás Maquiavelo, «a veces es una cosa muy sabia simular locura». En 1959, Daniel Ellsberg, un teórico de la estrategia nuclear explicaba que un líder de un país podría hacer amenazas más efectivas contra otra nación si lo perciben como un demente. Sería Richard Nixon durante la Guerra Fría quien lo pusiera en práctica, según reconocía su exjefe de gabinete en el libro `The Ends of Power´. Nixon lo usó para tener mayor poder de negociación si sus enemigos creen que sería capaz de llegar a soluciones extremas.

El uso de programas de IA en los sistemas de comando y control nuclear de las primeras potencias permite mejorar el flujo de información, la precisión en la recopilación y análisis de inteligencia y la ciberseguridad, reduciendo el error o la mala interpretación. Pero esta vertiente positiva tiene un reverso inquietante. El desarrollo por empresas chinas, estadounidenses y rusas de misiles hipersónicos y de armas que usan IA ha reducido el tiempo para dar luz verde a un contraataque antes de quedar inutilizados por el enemigo, socavando la condición de destrucción mutua asegurada , y eso es una ventaja que una potencia nuclear no estaría dispuesta a desperdiciar. las posibilidades de la IA en defensa lo analiza, entre otros, un informe pormenorizado del armamento ruso de la CNA .

«Nos encontramos en un periodo crítico. Dispondremos en las próximas décadas de tecnologías que pueden causar un daño extremo a nivel global, y hay razones para pensar que carecemos de la pericia que nos permita gestionarlas de manera segura», explica Jaime Sevilla, investigador afiliado al Centre for the Study of Existential Risk de la Universidad de Cambridge.

Tanto Jaime Sevilla como Lucía Ortiz de Zárate Alcarazo, investigadora en ética y gobernanza en IA en la UAM y colaboradora de la Fundación Alternativas , ponen como ejemplo claro el caso del teniente coronel Stanislav Petrov que evitó un holocausto nuclear en 1983 , cuando el sistema soviético de detección de misiles dio un falso positivo avisando de que cinco misiles se dirigían a territorio ruso e indicando en su pantalla «Ataque con misiles nucleares. Lanzar contrataque» . Casi lleva a que la URSS iniciara un conflicto nuclear contra EE.UU, indica Sevilla al ABC. Petrov ignoró el protocolo y eso le costó el puesto.

Sin embargo, el ser humano tiende a dar cada vez más crédito a la IA y a ser menos escéptico frente a sus avisos, porque como señala Javier Palanca, doctor en IA de la UPV e investigador del instituto valenciano de IA (VRAIN) , esta tecnología «se equivoca, pero se equivoca poco. El nivel de eficacia y precisión es mucho mayor y es capaz de ver patrones donde el humano no los encuentra».

Por eso, Michael Horowitz, profesor de la universidad de Pennsylvania y colaborador del Bulletin of Atomic Scientists, habla del ‘sesgo de automatización’ . Un fenómeno que explica con un estudio en el que los pilotos estadounidenses afirmaron que no confiarían en un sistema automatizado que les informara de un incendio en el motor de su avión a menos que hubiera evidencias que lo corroboran. Sin embargo, una vez inmersos en las simulaciones con IA, decidieron empezar a hacerlo.

Por todo ello, los expertos estadounidenses en disuasión nuclear Adam Lowther y Curtis McGiffin llegaron a proponer dar más presencia a la IA en el arsenal nuclear. «Puede ser necesario desarrollar un sistema basado en inteligencia artificial, capaz de reaccionar a tal velocidad que la reducción de los tiempos de ataque no sitúen a los EE. UU. en una posición insostenible» .

El Sistema semiautomatizado ruso Perimtr, conocido como `la Mano del Muerto´ de la URSS fue supuestamente desmantelado, pero la inteligencia estadounidense establece que puede que se haya mantenido y sofisticado para su uso actual

El maletín nuclear o `Cheguet´

La imagen en la que Putin recibe el maletín nuclear tras llegar al poder Reuters

Una idea que no es nueva porque la URSS ya contó con un modelo semiautomatizado, el Sistema Perimtr, conocido como `la Mano del Muerto´ . Aunque oficialmente fue desmantelado después de la Guerra Fría, la inteligencia estadounidense establece que puede que se haya mantenido y sofisticado. Esto supone que la amenaza latente de la IA puede ir reforzando a la del tradicional maletín nuclear. Éste recibe en Rusia el nombre de Cheguet. Putin lo recibió en 1999, tras llegar al poder. Empezó a funcionar cuando Mijaíl Gorbachov llegó al poder. Putin en diversos actos públicos ha mostrado que siempre lo acompaña.

Son tres maletines en total, los códigos encriptados del maletín nuclear de Putin necesita de los otros dos que están en poder del ministro de Defensa, Sergei Shoigu, y del Jefe del Estado Mayor, Valeri Guerasimov. El `Cheguet´ está compuesto por un sistema de control con un botón de color rojo y varios de color blanco. El del centro de este color sirve para dar la orden de ataque al Estado Mayor de la nación, cuyo teniente general sería el responsable último de iniciar el despliegue nuclear. Este mecanismo cuenta con Kavkaz, un sistema de telecomunicaciones encriptadas que comunica con los responsables militares.

La IA está dando un vuelco a estos sistemas tradicionales, y también va aprendiendo con los datos con los que se alimenta. Así, Francisco Herrera Triguero, catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Granada y miembro del Consejo Asesor de inteligencia artificial del Gobierno afirma «estos ejemplos pueden ser reales o artificiales, es una de los grandes retos de la IA. Pero al final debe abogarse por el toque humano en la decisión final». Y la UE es la única que se está preocupando por una lectura legal sobre el uso de la IA, frente a Estados Unidos o China.

La IA también puede jugar un papel disuasorio. Un ejemplo es su uso en simulacros de ataques con ojivas nucleares , así, en 2019 un grupo de expertos de la Universidad de Princeton crearon una simulación llamada ‘Plan A’ (enlace) que revelaba que el resultado supondría 91 millones de víctimas, de las cuales 34 son muertes inmediatas y 57 millones de heridos en menos de cinco horas. El número lo calcularon con el NukeMap (enlace) , una herramienta creada por Alex Wellerstein, que muestra el daño según la potencia del armamento y el lugar de lanzamiento. No son juegos de guerra gratuitos , sino como dijeron los investigadores pretenden llamar la atención sobre las «consecuencias potencialmente catastróficas de los actuales planes de guerra nuclear de EE.UU. y Rusia».

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación