TecnologicAI

¿El Pentágono Puede Espiar a Ciudadanos con IA? Descubre el Debate que Sacude la Privacidad Digital

Publicado el 07-03-2026

El uso de la inteligencia artificial por parte de las agencias de defensa de EE.UU. para analizar datos masivos de ciudadanos ha desatado una controversia que expone las profundas grietas entre la ley actual y las capacidades tecnológicas. Exploramos cómo este choque está redefiniendo los límites de la vigilancia y la privacidad en la era digital.

El Escenario de Conflicto: Gigantes de la IA vs. el Pentágono

La tensión entre el Departamento de Defensa de EE.UU. (DoD) y las principales empresas de inteligencia artificial ha puesto de manifiesto una cuestión crítica: ¿Está legalmente permitido que el gobierno estadounidense lleve a cabo una vigilancia masiva de sus ciudadanos utilizando algoritmos de IA? Esta pregunta, lejos de tener una respuesta sencilla, ha provocado un debate público y legal que subraya la brecha existente entre la percepción ciudadana sobre la privacidad y lo que la legislación actual realmente permite.

El epicentro de esta disputa ha sido el deseo del Pentágono de emplear la IA Claude de Anthropic para analizar grandes volúmenes de datos comerciales de ciudadanos estadounidenses. Anthropic, una empresa con principios éticos muy definidos, se negó rotundamente a que su tecnología fuera utilizada para vigilancia doméstica masiva o para el desarrollo de armas autónomas. Las negociaciones colapsaron, y la respuesta del Pentágono fue contundente: designó a Anthropic como un «riesgo para la cadena de suministro», una etiqueta habitualmente reservada para compañías extranjeras que representan una amenaza para la seguridad nacional, según informó Bloomberg en su momento.

Mientras tanto, su rival OpenAI, la empresa detrás del popular ChatGPT, selló un acuerdo que permitía al Pentágono usar su IA para «todos los propósitos legales». Esta frase generó una oleada de críticas, ya que muchos la interpretaron como una puerta abierta a la vigilancia doméstica. La reacción del público fue inmediata y severa: miles de usuarios desinstalaron ChatGPT, y activistas escribieron mensajes en las inmediaciones de la sede de OpenAI en San Francisco, cuestionando sus límites éticos.

Ante la presión, OpenAI revisó su acuerdo, declarando que su IA no sería utilizada para vigilancia doméstica y que sus servicios no serían empleados por agencias de inteligencia como la NSA. El CEO Sam Altman sugirió que la ley existente ya prohíbe la vigilancia doméstica por parte del Departamento de Defensa, y que el contrato de OpenAI simplemente necesitaba hacer referencia a esta ley. Sin embargo, Dario Amodei, CEO de Anthropic, mantuvo la postura opuesta, argumentando que si tal vigilancia era legal, era solo porque «la ley aún no se había puesto al día con las capacidades de rápido crecimiento de la IA», una declaración que resonó con muchos expertos en ética de la IA y privacidad digital.

El Vacío Legal: La IA y Leyes Obsoletas

La cuestión de quién tiene razón radica en una interpretación fundamental de lo que constituye «vigilancia» bajo la ley. Alan Rozenshtein, profesor de derecho en la Universidad de Minnesota, señala que «muchas cosas que la gente común consideraría una búsqueda o vigilancia… en realidad no son consideradas una búsqueda o vigilancia por la ley». Esto implica que la información pública —como publicaciones en redes sociales, imágenes de cámaras de vigilancia y registros de votantes— es de uso legítimo. Lo mismo ocurre con la información sobre ciudadanos estadounidenses obtenida incidentalmente de la vigilancia de extranjeros.

Además, y lo que es más preocupante, el gobierno puede adquirir datos comerciales de empresas, lo que puede incluir información personal sensible como la ubicación del móvil y los registros de navegación web. Agencias como ICE, el IRS, el FBI y la NSA han recurrido cada vez más a este mercado de datos, impulsado por una economía digital que monetiza la información del usuario para publicidad. Estos conjuntos de datos permiten al gobierno acceder a información que de otro modo requeriría una orden judicial o una citación, normalmente necesarias para obtener datos personales sensibles.

La Inteligencia Artificial: Un Supercargador de la Vigilancia

«Hay una enorme cantidad de información que el gobierno puede recopilar sobre los estadounidenses que no está regulada ni por la Constitución, que es la Cuarta Enmienda, ni por ley», explica Rozenshtein. Y lo que es más, no existen límites significativos sobre lo que el gobierno puede hacer con todos estos datos. Esto se debe a que, hasta las últimas décadas, las personas no generaban masivas nubes de datos que abrieran nuevas posibilidades para la vigilancia. La Cuarta Enmienda, que protege contra búsquedas e incautaciones irrazonables, fue redactada en una época en la que la recopilación de información implicaba entrar en los hogares de las personas.

Leyes posteriores, como la Ley de Vigilancia de Inteligencia Extranjera de 1978 (FISA) o la Ley de Privacidad de Comunicaciones Electrónicas de 1986 (ECPA), se aprobaron cuando la vigilancia implicaba la interceptación de llamadas telefónicas y correos electrónicos. La mayor parte de las leyes que rigen la vigilancia se establecieron antes de la explosión de Internet. No estábamos generando vastas huellas de datos en línea, y el gobierno carecía de herramientas sofisticadas para analizar esos datos.

Ahora sí lo hacemos, y la IA sobrecarga el tipo de vigilancia que se puede llevar a cabo. «Lo que la IA puede hacer es tomar mucha información, ninguna de la cual es sensible por sí misma, y por lo tanto ninguna de la cual está regulada por sí misma, y puede dar al gobierno muchos poderes que antes no tenía», afirma Rozenshtein. La IA puede agregar piezas individuales de información para detectar patrones, extraer inferencias y construir perfiles detallados de personas, a una escala masiva. Y mientras el gobierno recopile la información legalmente, puede hacer lo que quiera con ella, incluyendo alimentarla a sistemas de IA. «La ley no se ha puesto al día con la realidad tecnológica», concluye Rozenshtein.

Aunque la vigilancia puede plantear serias preocupaciones de privacidad, el Pentágono puede tener intereses legítimos de seguridad nacional en la recopilación y análisis de datos sobre los ciudadanos. «Para recopilar información sobre los estadounidenses, debe ser para un subconjunto muy específico de misiones», explica Loren Voss, ex oficial de inteligencia militar del Pentágono. Por ejemplo, una misión de contrainteligencia podría requerir información sobre un estadounidense que trabaja para un país extranjero o que planea participar en actividades terroristas internacionales. Pero la inteligencia selectiva a veces puede extenderse a la recopilación de más datos. «Este tipo de recopilación pone nerviosa a la gente», admite Voss, destacando el delicado equilibrio entre seguridad y derechos individuales.

Navegando el Propósito «Lícito»: El Caso OpenAI y Sus Implicaciones

La enmienda de OpenAI a su contrato para estipular que su sistema de IA «no será utilizado intencionadamente para la vigilancia doméstica de personas y nacionales de EE.UU.» en línea con las leyes pertinentes, busca aclarar que esto prohíbe el «seguimiento, vigilancia o monitoreo deliberado de personas o nacionales de EE.UU., incluso a través de la adquisición o uso de información personal o identificable adquirida comercialmente». Sin embargo, esta redacción, aunque bien intencionada, podría no ser suficiente para anular la cláusula original que permite al Pentágono usar el sistema de IA de la empresa para «todos los propósitos legales», lo que podría incluir la recopilación y análisis de información personal sensible.

Jessica Tillipman, profesora de derecho en la Universidad George Washington, es escéptica: «OpenAI puede decir lo que quiera en su acuerdo… pero el Pentágono va a usar la tecnología para lo que considera lícito». Ella enfatiza que, la mayoría de las veces, las empresas no podrán impedir que el Pentágono haga lo que perciba como legal, incluso si esto incluye la vigilancia doméstica. La ambigüedad del lenguaje deja abiertas preguntas sobre la vigilancia «inadvertida» y la vigilancia de extranjeros o inmigrantes indocumentados que residen en EE.UU. «¿Qué sucede cuando hay un desacuerdo sobre cuál es la ley, o cuando la ley cambia?», se pregunta Tillipman.

Más allá del contrato, OpenAI ha afirmado que impondrá salvaguardias técnicas para hacer cumplir su línea roja contra la vigilancia, incluyendo una «pila de seguridad» que monitorea y bloquea usos prohibidos. La compañía también asegura que sus propios empleados trabajarán con el Pentágono para mantenerse informados. Sin embargo, no está claro cómo una pila de seguridad podría restringir el uso de la IA por parte del Pentágono, ni hasta qué punto los empleados de OpenAI tendrían visibilidad sobre cómo se utilizan sus sistemas. Más importante aún, no está claro si el contrato otorga a OpenAI el poder de bloquear un uso legal de la tecnología.

Loren Voss también señala que permitir que una empresa de IA desconecte su tecnología en medio de operaciones gubernamentales podría acarrear riesgos para la seguridad nacional. Sin embargo, esto no significa que el Congreso no deba establecer límites claros. Estas cuestiones no son sencillas y exigen un equilibrio brutal entre la privacidad y la seguridad nacional. Por ello, deberían ser debatidas y decididas por el público y sus representantes, no en negociaciones a puerta cerrada entre el poder ejecutivo y un puñado de empresas de IA. Por ahora, la IA militar se está regulando mediante contratos, no mediante legislación.

La Urgencia de una Legislación a la Altura de la Era Digital

La creciente preocupación por la vigilancia con IA ha comenzado a resonar en el ámbito legislativo. El senador Ron Wyden de Oregón, por ejemplo, ha sido un defensor de proyectos de ley que restringen la compra de datos comerciales por parte del gobierno, como la «Ley de que la Cuarta Enmienda No Está a la Venta», introducida por primera vez en 2021, pero que aún no se ha convertido en ley. «La creación de perfiles de IA de estadounidenses basados en esos datos representa una escalofriante expansión de la vigilancia masiva que no debería permitirse», afirmó Wyden en una declaración reciente. Su esfuerzo por buscar apoyo bipartidista para una legislación que aborde la vigilancia masiva es un paso crucial hacia la modernización de las leyes de privacidad en la era de la inteligencia artificial.

La falta de una legislación integral y actualizada sobre la vigilancia y el uso de la IA crea una zona gris que beneficia a las agencias gubernamentales a expensas de la privacidad de los ciudadanos. Es imperativo que los legisladores actúen rápidamente para establecer marcos legales claros que definan los límites del uso de la IA en la seguridad nacional, asegurando que los derechos fundamentales de los individuos estén protegidos en un panorama tecnológico en constante evolución.

Conclusión: El debate sobre la capacidad del Pentágono para vigilar a los ciudadanos con inteligencia artificial es un reflejo de la necesidad urgente de adaptar nuestras leyes a la velocidad del avance tecnológico. La confianza pública en las instituciones y en las empresas tecnológicas depende de la transparencia y de la existencia de regulaciones claras que protejan la privacidad en la era de los macrodatos y la IA. La responsabilidad recae en el poder legislativo para forjar un futuro donde la seguridad nacional y los derechos civiles puedan coexistir bajo un marco legal robusto y actualizado, evitando que las decisiones cruciales se diriman en acuerdos contractuales privados.

Fuente original: Is the Pentagon allowed to surveil Americans with AI?