El Pentágono y la IA: ¿Cómo Entrenar Modelos con Datos Clasificados Redefinirá la Guerra Digital?
Publicado el 18-03-2026
El Departamento de Defensa de EE. UU. se prepara para un salto cualitativo en inteligencia artificial, permitiendo a empresas tecnológicas entrenar sus modelos generativos directamente con información de inteligencia clasificada. Esta audaz estrategia busca potenciar la precisión militar, pero plantea desafíos sin precedentes en seguridad y gestión de datos.
La Estrategia ‘AI-First’ del Pentágono: Un Vistazo al Futuro de la Defensa
La inteligencia artificial (IA) está transformando rápidamente el panorama global, y el sector de la defensa no es una excepción. El Pentágono, en un movimiento que subraya su compromiso con la vanguardia tecnológica, está discutiendo planes para permitir que empresas líderes en IA, como OpenAI y xAI, entrenen versiones de sus modelos generativos directamente con datos clasificados. Esta iniciativa, revelada por un oficial de defensa a MIT Technology Review, marca un punto de inflexión significativo en la integración de la IA en las operaciones militares, llevando la colaboración público-privada a un nuevo nivel de complejidad y potencial.
Hasta ahora, los modelos de IA, como Claude de Anthropic, ya se utilizan en entornos clasificados para tareas como el análisis de objetivos. Sin embargo, su función principal ha sido procesar y responder preguntas sobre datos existentes. La propuesta de permitir el entrenamiento directo en información sensible, como informes de vigilancia o evaluaciones de campo de batalla, representa un salto cualitativo. La expectativa es que esta medida incremente drásticamente la precisión y eficacia de los modelos en tareas militares específicas, posicionando al Departamento de Defensa como una «fuerza de combate ‘AI-first'», una visión articulada en su nueva agenda de IA para la guerra. Esta evolución se produce en un contexto de creciente demanda de modelos más potentes y en medio de un clima geopolítico complejo, con un foco en el conflicto con Irán.
Del Análisis al Aprendizaje: La Evolución de la IA en la Defensa
La utilización de la IA en el ámbito militar no es enteramente nueva. Desde hace tiempo, los modelos de visión por computadora, una forma más antigua de IA, han sido fundamentales para identificar objetos en imágenes y videos recopilados por drones y aviones. Agencias federales incluso han otorgado contratos para entrenar modelos de IA con este tipo de contenido. Más recientemente, las empresas de modelos de lenguaje grandes (LLMs) han desarrollado versiones adaptadas para el gobierno, como Claude Gov de Anthropic, optimizadas para operar en múltiples idiomas y entornos seguros. Sin embargo, la idea de que empresas de IA entrenen directamente sus LLMs con datos clasificados es una novedad que introduce una capa de complejidad y riesgo totalmente diferente.
Mecanismos de Operación y los Riesgos Inherentes a los Datos Clasificados
El plan contempla que el entrenamiento se realice en centros de datos seguros, acreditados para proyectos gubernamentales clasificados. En estos entornos controlados, una copia del modelo de IA se emparejaría con los datos clasificados. Aunque el Departamento de Defensa mantendría la propiedad de los datos, en casos excepcionales, personal de las empresas de IA con la autorización de seguridad adecuada podría acceder a ellos. Sin embargo, antes de proceder con el entrenamiento en datos clasificados, el Pentágono planea evaluar la precisión y eficacia de los modelos utilizando datos no clasificados, como imágenes satelitales disponibles comercialmente.
El Dilema de la Seguridad: Contención de Información Sensible
La preocupación más apremiante, según expertos como Aalok Mehta, director del Centro Wadhwani AI en el Centro de Estudios Estratégicos e Internacionales y exlíder de políticas de IA en Google y OpenAI, radica en la posibilidad de que la información clasificada utilizada para el entrenamiento pueda ser «resurgida» por el propio modelo. Esto se convierte en un problema si múltiples departamentos militares, con diferentes niveles de clasificación y necesidades de información, compartieran el mismo sistema de IA. Mehta ilustra este riesgo con un escenario: «Se puede imaginar, por ejemplo, un modelo que tiene acceso a algún tipo de inteligencia humana sensible —como el nombre de un operativo— filtrando esa información a una parte del Departamento de Defensa que no debería tener acceso a ella.» Esto no solo comprometería la seguridad del operativo, sino que también dificultaría la mitigación perfecta si el modelo es compartido por varios grupos.
- Filtraciones Internas: El principal riesgo es la exposición de información sensible entre departamentos militares con diferentes autorizaciones.
- Riesgos para Operativos: La revelación inadvertida de identidades o datos sensibles de personal en operaciones encubiertas.
- Mitigación Compleja: Dificultad para garantizar la compartimentación de la información una vez incrustada en el modelo y compartida.
No obstante, Mehta aclara que contener la información del mundo exterior en general es más factible. «Si se configura correctamente, habrá muy poco riesgo de que esos datos se muestren en internet o regresen a OpenAI». El gobierno ya posee parte de la infraestructura necesaria para esto; empresas como Palantir han obtenido contratos significativos para construir entornos seguros que permiten a los funcionarios interactuar con modelos de IA sobre temas clasificados sin enviar la información de vuelta a las empresas de IA. Sin embargo, adaptar estos sistemas para fines de entrenamiento presenta un nuevo conjunto de desafíos técnicos y de seguridad.
Aplicaciones Potenciales y el Impulso Hacia una Defensa Hiper-Inteligente
Impulsado por un memorándum del Secretario de Defensa Pete Hegseth en enero, el Pentágono ha acelerado la incorporación de más IA. Ya se ha utilizado en combate para clasificar listas de objetivos y recomendar prioridades de ataque, así como en roles administrativos para redactar contratos e informes. Con el acceso a datos clasificados, las posibilidades se expanden exponencialmente.
El ejército podría entrenar modelos de IA líderes para realizar una vasta gama de tareas que actualmente manejan analistas humanos. Esto podría incluir aprender a identificar pistas sutiles en una imagen con la misma agudeza que un experto humano, o conectar nueva información con un contexto histórico profundo. Los datos clasificados para este entrenamiento podrían extraerse de las inmensas cantidades de texto, audio, imágenes y video, en múltiples idiomas, que los servicios de inteligencia recopilan continuamente. Si bien las aplicaciones específicas permanecen bajo un velo de confidencialidad, la capacidad de procesar y aprender de esta riqueza de información transformaría la toma de decisiones y la eficacia operativa.
El Equilibrio entre Innovación y Confidencialidad
La apuesta del Pentágono por el entrenamiento de IA con datos clasificados es una clara señal de su determinación de mantener una ventaja tecnológica crucial. Sin embargo, el camino hacia una «fuerza de combate ‘AI-first'» está plagado de desafíos complejos. La necesidad de equilibrar la innovación con la seguridad de la información, proteger la inteligencia sensible y garantizar la integridad de los modelos de IA será una tarea monumental que requerirá una estrecha colaboración entre tecnólogos, expertos en seguridad y formuladores de políticas.
Conclusión: La decisión del Pentágono de permitir el entrenamiento de IA con datos clasificados no es solo un avance tecnológico; es una redefinición de la seguridad nacional en la era digital. Aunque promete una mejora sin precedentes en las capacidades militares, también fuerza a una reevaluación fundamental de los protocolos de seguridad, la ética de la IA y la relación entre la tecnología civil y la defensa. El éxito de esta iniciativa dependerá de la capacidad para mitigar los riesgos inherentes, garantizando que el poder transformador de la inteligencia artificial se aproveche de manera segura y responsable para salvaguardar los intereses vitales de la nación.
Fuente original: The Pentagon is planning for AI companies to train on classified data, defense official says