TecnologicAI

Desvelando el Futuro de la Guerra: ¿Cómo la Inteligencia Artificial Redefine los Conflictos y sus Límites Éticos?

Publicado el 17-11-2025

Banner The State of AI: Una colaboración entre Financial Times y MIT Technology Review sobre el impacto de la IA

La inteligencia artificial ya no es ciencia ficción en el campo de batalla. Expertos debaten si esta revolución tecnológica traerá mayor precisión y seguridad o un riesgo incontrolable que podría redefinir para siempre la naturaleza de la guerra.

El panorama geopolítico global está en constante evolución, y en su epicentro, una fuerza disruptiva emerge con una potencia sin precedentes: la inteligencia artificial (IA). Lejos de ser un mero catalizador de innovación civil, la IA se está consolidando como el próximo gran transformador en la esfera militar y de defensa. Este giro estratégico plantea interrogantes fundamentales sobre la ética, la seguridad y la propia definición de conflicto armado.

En un debate reciente y esclarecedor, parte de la serie «The State of AI», una colaboración entre el Financial Times y MIT Technology Review, Helen Warrell, reportera de investigación del FT y ex editora de defensa, y James O’Donnell, reportero senior de IA de MIT Technology Review, desglosan los dilemas éticos y los poderosos incentivos financieros que impulsan la adopción militar de la IA. ¿Estamos ante un futuro de guerras más «limpias» y controladas, o nos dirigimos hacia un abismo de conflictos autónomos con consecuencias impredecibles? Este análisis profundiza en sus perspectivas, explorando las luces y sombras de esta revolución tecnológica.

El Fantasma de la Autonomía Total: ¿Un Escenario Distópico o Una Realidad Inminente?

Imaginemos un futuro no tan distante, julio de 2027, donde drones autónomos equipados con capacidades de IA para la focalización superan las defensas aéreas de una nación, mientras ciberataques generados por IA paralizan infraestructuras críticas y campañas masivas de desinformación, orquestadas por granjas de «memes» impulsadas por IA, ahogan cualquier protesta global. Este tipo de escenarios, que parecen sacados de una novela de ciencia ficción, son precisamente los que alimentan el debate sobre la IA en la guerra y sus implicaciones más oscuras.

Helen Warrell subraya que, si bien los comandantes militares sueñan con una fuerza mejorada digitalmente, más rápida y precisa que el combate dirigido por humanos, existe un temor palpable. La preocupación central es que, a medida que la IA asume un papel cada vez más protagónico, se pierda el control sobre conflictos que escalan con demasiada velocidad, careciendo de la necesaria supervisión ética y legal. Incluso figuras históricas como Henry Kissinger dedicaron sus últimos años a advertir sobre la catástrofe inminente de la guerra impulsada por IA. Esta realidad ha llevado a muchos a hablar de un «momento Oppenheimer» para nuestra era, una encrucijada tecnológica de proporciones históricas.

Desmitificando el Hype: La IA Como Herramienta, No Como Tomadora de Decisiones Finales

A pesar de las visiones apocalípticas, Warrell también introduce una nota de escepticismo sobre la hipérbole que rodea a la IA militar. Un consenso emergente en Occidente prohíbe explícitamente la externalización de decisiones sobre armas nucleares a la IA. El Secretario General de la ONU, António Guterres, ha ido más allá, pidiendo una prohibición total de los sistemas de armas letales totalmente autónomos. La necesidad de que la regulación avance al mismo ritmo que la tecnología es crítica.

Sin embargo, los investigadores del Belfer Center de Harvard señalan que los optimistas de la IA a menudo subestiman los desafíos reales de implementar sistemas de armas totalmente autónomos en el campo. El profesor Anthony King, del Instituto de Estrategia y Seguridad de la Universidad de Exeter, argumenta que, en lugar de reemplazar a los humanos, la IA se utilizará para mejorar la percepción y el análisis militar. La automatización completa de la guerra, insiste, es simplemente una ilusión. Actualmente, los tres principales casos de uso militar de la IA (planificación y logística, ciberguerra y, controvertidamente, la focalización de armas) no implican autonomía total. En Ucrania, la IA dirige drones para evadir interferencias, mientras que las Fuerzas de Defensa de Israel han utilizado Lavender, un sistema asistido por IA, para identificar miles de objetivos potenciales. Esto demuestra que la IA ya es una herramienta operativa, pero su nivel de autonomía sigue siendo un punto álgido de debate.

Un aspecto particularmente sensible es el sesgo algorítmico. Aunque la base de datos Lavender podría replicar sesgos de los datos con los que fue entrenada, un oficial de inteligencia israelí que la usó afirmó tener más fe en la imparcialidad de un «mecanismo estadístico» que en la de un soldado afectado por el dolor. Esta es una verdad incómoda que obliga a comparar los sesgos de la máquina con los sesgos humanos en situaciones de alta presión. Keith Dear, exoficial militar del Reino Unido y director de Cassi AI, argumenta que las leyes existentes son suficientes, siempre que los datos de entrenamiento sean «limpios» y el comandante humano sea el responsable final.

El Poder del Dinero y el Cambio de Paradigma en la Industria de la IA

James O’Donnell, por su parte, señala un cambio drástico en la actitud de las grandes empresas de IA hacia las aplicaciones militares. A principios de 2024, OpenAI prohibía explícitamente el uso de sus herramientas para la guerra. Sin embargo, para finales de ese mismo año, ya había firmado un acuerdo con Anduril para asistir en la neutralización de drones en el campo de batalla. Este giro, aunque no implica un arma totalmente autónoma, marca un cambio significativo en la disposición de las empresas tecnológicas a vincularse públicamente con la defensa.

¿Qué Impulsa esta Transformación? Hype, Dinero y la Búsqueda de Precisión

O’Donnell identifica dos factores clave detrás de esta transformación:

  • El Hype Tecnológico: La promesa de que la IA no solo traerá superinteligencia y descubrimientos científicos, sino que también hará la guerra más «inteligente», precisa y menos propensa a la falibilidad humana, es seductora. Los marines estadounidenses, por ejemplo, han probado IA para analizar inteligencia extranjera más rápido que un humano.
  • El Incentivo Financiero: Las empresas de IA, como OpenAI, invierten cantidades ingentes de capital en el entrenamiento y ejecución de sus modelos. Pocos tienen bolsillos tan profundos como el Pentágono. La financiación de capital de riesgo para tecnología de defensa se ha duplicado en 2024, reflejando el apetito de las startups por vender a los militares. Esta burbuja de inversión resalta la presión para monetizar la IA, y el sector de la defensa ofrece una vía lucrativa.

O’Donnell también cuestiona la premisa de que una focalización más precisa por parte de la IA automáticamente conducirá a menos víctimas o guerras. Recuerda la primera era de la guerra con drones en Afganistán: ¿realmente redujo la carnicería, o simplemente permitió más destrucción por dólar invertido? Esta analogía es crucial para entender que la eficiencia tecnológica no siempre se traduce en un menor impacto humano.

Además, existe un campamento de críticos que, lejos de oponerse a la guerra en sí misma, tienen quejas muy específicas sobre las limitaciones fundamentales de la tecnología. Missy Cummings, ex piloto de combate de la Marina de los EE. UU. y ahora profesora de ingeniería informática, ha expresado su preocupación de que los Grandes Modelos de Lenguaje (LLMs) son propensos a cometer errores graves en entornos militares de alto riesgo. La idea de que las salidas de la IA son «verificadas por humanos» se vuelve problemática cuando un modelo se basa en miles de entradas, haciendo que la verificación individual sea casi imposible.

Navegando el Laberinto Ético y la Carrera Armamentista de la IA

Tanto Warrell como O’Donnell coinciden en la necesidad urgente de un escepticismo saludable. Las empresas tecnológicas están haciendo promesas extraordinariamente ambiciosas sobre lo que la IA puede lograr en aplicaciones de alto riesgo, mientras que la presión por implementarlas es inmensa. Como señala O’Donnell, incluso el Pentágono ha experimentado desafíos en la prueba de IA, lo que sugiere que la adopción no es tan sencilla como se publicita. Esto significa que es momento de exigir más transparencia, no menos.

Helen Warrell concluye que, si bien debemos seguir cuestionando la seguridad de los sistemas de guerra con IA y la supervisión a la que están sujetos, también debemos aplicar escepticismo a las «grandes promesas» de lo que la IA podría lograr en el campo de batalla. La escena de la tecnología de defensa, aunque en auge, es relativamente incipiente, y presenta tanto oportunidades como peligros. El riesgo más grande es que la velocidad y el secretismo de una carrera armamentista en IA impidan el escrutinio y el debate desesperadamente necesarios. Sin una reflexión profunda y un marco regulatorio sólido, el futuro de la guerra, moldeado por la inteligencia artificial, podría desviarse hacia un camino impredecible y potencialmente devastador.

Más Allá del Artículo: Profundizando en el Impacto de la IA en la Defensa

Fuente original: The State of AI: How war will be changed forever