
En el Centro de Estudios Estratégicos e Internacionales, un grupo de expertos con sede en Washington, DC, el Futures Lab está trabajando en proyectos para utilizar la inteligencia artificial para transformar la práctica de la diplomacia .
Con financiación de la Oficina de Inteligencia Artificial y Digital del Pentágono, el laboratorio está experimentando con IA como ChatGPT y DeepSeek para explorar cómo podrían aplicarse a cuestiones de guerra y paz.
Si bien en los últimos años las herramientas de IA se han incorporado a los ministerios de Asuntos Exteriores de todo el mundo para facilitar tareas diplomáticas rutinarias, como la redacción de discursos, estos sistemas se consideran cada vez más por su potencial para ayudar a tomar decisiones en situaciones de alto riesgo. Los investigadores están probando el potencial de la IA para elaborar acuerdos de paz, prevenir una guerra nuclear y supervisar el cumplimiento del alto el fuego.
Los Departamentos de Defensa y de Estado también están experimentando con sus propios sistemas de IA. Estados Unidos no es el único actor. El Reino Unido trabaja en “tecnologías innovadoras” para modernizar las prácticas diplomáticas, incluyendo el uso de IA para planificar escenarios de negociación. Incluso investigadores en Irán lo están estudiando.
Benjamin Jensen, director de Futures Lab, dice que si bien la idea de usar la IA como herramienta en la toma de decisiones en política exterior existe desde hace algún tiempo, su puesta en práctica todavía está en sus primeras etapas.
Palomas y halcones en IA
En un estudio, los investigadores del laboratorio probaron ocho modelos de IA al alimentarlos con decenas de miles de preguntas sobre temas como la disuasión y la escalada de crisis para determinar cómo responderían a escenarios en los que los países podrían decidir atacarse entre sí o ser pacíficos.
Los resultados revelaron que modelos como GPT-4o de OpenAI y Claude de Antropic eran claramente pacifistas, según Yasir Atalan, investigador del CSIS. Optaron por el uso de la fuerza en menos del 17 % de los escenarios. Sin embargo, otros tres modelos evaluados —Llama de Meta, Qwen2 de Alibaba Cloud y Gemini de Google— fueron mucho más agresivos, priorizando la escalada sobre la desescalada con mucha mayor frecuencia, hasta en un 45 % de los casos.
Es más, los resultados variaban según el país. Para un diplomático imaginario de EE. UU., el Reino Unido o Francia, por ejemplo, estos sistemas de IA tendían a recomendar políticas más agresivas (o de escalada), mientras que para Rusia o China la desescalada era el mejor consejo. Esto demuestra que «no se pueden usar modelos estándar», afirma Atalan. «Es necesario evaluar sus patrones y alinearlos con el enfoque institucional».
Russ Berkoff, oficial retirado de las Fuerzas Especiales del Ejército de EE. UU. y estratega de IA en la Universidad Johns Hopkins, considera que esa variabilidad es producto de la influencia humana. «Quienes desarrollan el software tienen sus propios sesgos», afirma. «Un algoritmo puede intensificar el problema; otro, reducirlo. No se trata de la IA, sino de quién la desarrolló»
La causa fundamental de estos curiosos resultados presenta un problema de caja negra, afirma Jensen. «Es realmente difícil saber por qué se calcula eso», añade. «El modelo no tiene valores ni emite juicios. Simplemente hace cálculos».
El CSIS lanzó recientemente un programa interactivo llamado “Strategic Headwinds” , diseñado para ayudar a definir las negociaciones para poner fin a la guerra en Ucrania. Para desarrollarlo, según Jensen, los investigadores del laboratorio comenzaron entrenando un modelo de IA con cientos de tratados de paz y artículos periodísticos de código abierto que detallaban la postura negociadora de cada bando. El modelo utiliza esa información para identificar puntos de acuerdo que podrían indicar un camino hacia un alto el fuego.
En el Instituto para las Transiciones Integradas (IFIT) de España, el director ejecutivo Mark Freeman cree que este tipo de herramienta de inteligencia artificial podría facilitar la resolución de conflictos. La diplomacia tradicional a menudo ha priorizado las conversaciones de paz largas y exhaustivas. Sin embargo, Freeman argumenta que la historia demuestra que este enfoque es defectuoso. Analizando conflictos pasados, descubre que los acuerdos marco más rápidos y los ceses del fuego limitados —que dejan los detalles para resolverlos posteriormente— suelen producir resultados más satisfactorios.
“A menudo hay muy poco tiempo para utilizar eficazmente la negociación o la mediación”, afirma. “El conflicto no espera y suele afianzarse muy rápidamente si se derrama mucha sangre en muy poco tiempo”.
En cambio, IFIT ha desarrollado un enfoque acelerado para alcanzar acuerdos en las primeras etapas de un conflicto, con el fin de obtener mejores resultados y acuerdos de paz más duraderos. Freeman cree que la IA puede agilizar aún más las negociaciones aceleradas.
Andrew Moore, investigador principal adjunto del Centro para una Nueva Seguridad Estadounidense, considera que esta transición es inevitable. “Podríamos tener inteligencias artificiales que inicien la negociación por sí mismas… y el negociador humano diga: ‘Genial, ahora resolvamos los puntos finales'”, afirma.
Moore prevé un futuro en el que bots simularán a líderes como el ruso Vladimir Putin y el chino Xi Jinping para que los diplomáticos puedan probar respuestas ante las crisis. También cree que las herramientas de IA pueden ayudar con la vigilancia del alto el fuego, el análisis de imágenes satelitales y la aplicación de sanciones. «Acciones que antes requerían la intervención de equipos enteros pueden automatizarse parcialmente», afirma.
Resultados extraños sobre la disuasión en el Ártico
Jensen es el primero en reconocer los posibles inconvenientes de este tipo de aplicaciones. Él y sus colegas del CSIS se han encontrado en ocasiones con resultados involuntariamente cómicos para preguntas serias, como cuando se le preguntó a un sistema de IA sobre la “disuasión en el Ártico”.
Los diplomáticos humanos entenderían que esto se refiere a las potencias occidentales que luchan contra la influencia rusa o china en las latitudes septentrionales y al potencial de conflicto allí.
La IA tomó otro camino.
Cuando los investigadores usaron la palabra “disuasión”, la IA “tiende a pensar en la aplicación de la ley, no en la escalada nuclear” ni en otros conceptos militares, afirma Jensen. “Y cuando se dice ‘Ártico’, se imagina nieve. Así que obtuvimos estos resultados extraños sobre la escalada de fuerza”, añade, mientras la IA especulaba sobre arrestar a pueblos indígenas del Ártico “por lanzar bolas de nieve”.
Jensen dice que esto simplemente significa que los sistemas necesitan ser entrenados, con insumos como tratados de paz y cables diplomáticos, para entender el lenguaje de la política exterior.
“Hay más vídeos de gatos y opiniones candentes sobre las Kardashian que discusiones sobre la Crisis de los Misiles de Cuba “, afirma.
La IA no puede replicar una conexión humana, todavía
Stefan Heumann, codirector de Stiftung Neue Verantwortung, un centro de estudios sin fines de lucro con sede en Berlín que trabaja en la intersección de la tecnología y las políticas públicas, tiene otras preocupaciones. «Las conexiones humanas —las relaciones personales entre líderes— pueden cambiar el curso de las negociaciones», afirma. «La IA no puede replicar eso».
Al menos en la actualidad, la IA también tiene dificultades para sopesar las consecuencias a largo plazo de las decisiones a corto plazo, afirma Heumann, miembro de la Comisión de Expertos sobre Inteligencia Artificial del parlamento alemán. « El apaciguamiento de Múnich en 1938 se consideró una medida para desescalar la situación, pero condujo a la catástrofe», afirma, señalando el acuerdo que cedió parte de Checoslovaquia a la Alemania nazi antes de la Segunda Guerra Mundial. «Etiquetas como ‘escalar’ y ‘desescalar’ son demasiado simplistas».
La IA tiene otras limitaciones importantes, afirma Heumann. «Prospera en entornos abiertos y libres», pero «no resolverá por arte de magia nuestros problemas de inteligencia en sociedades cerradas como Corea del Norte o Rusia».
Comparen esto con la amplia disponibilidad de información sobre sociedades abiertas como la estadounidense, que podría utilizarse para entrenar sistemas de IA enemigos, afirma Andrew Reddie, fundador y director del Laboratorio de Riesgo y Seguridad de Berkeley, en la Universidad de California, Berkeley. «Los adversarios de Estados Unidos tienen una ventaja realmente significativa porque nosotros publicamos todo… y ellos no», afirma.
Reddie también reconoce algunas de las limitaciones de la tecnología. Mientras la diplomacia siga una narrativa familiar, todo podría ir bien, dice, pero «si realmente crees que tu desafío geopolítico es un cisne negro, las herramientas de IA no te serán útiles».
Jensen también reconoce muchas de esas preocupaciones, pero cree que pueden superarse. Sus temores son más prosaicos. Jensen ve dos posibles futuros para el papel de los sistemas de IA en el futuro de la política exterior estadounidense.
“En una versión del futuro del Departamento de Estado… hemos cargado cables diplomáticos y entrenado [a la IA] en tareas diplomáticas”, y la IA genera información útil que puede usarse para resolver problemas diplomáticos urgentes.
La otra versión, sin embargo, “parece sacada de Idiocracy “, dice, refiriéndose a la película de 2006 sobre un futuro distópico con bajo coeficiente intelectual. “Todos tenemos un asistente digital, pero es tan inútil como Clippy [de Microsoft] ” .

