El Departamento de Seguridad Nacional de EE. UU. Adopta IA de Google y Adobe para Contenido Público: ¿Hacia una Era de Comunicación Algorítmica?
Publicado el 30-01-2026
Un reciente informe del Departamento de Seguridad Nacional de EE. UU. (DHS) revela el uso masivo de herramientas comerciales de generación de video e imágenes con Inteligencia Artificial, incluyendo soluciones de Google y Adobe. Esta adopción marca un punto de inflexión en la comunicación gubernamental, pero también suscita interrogantes cruciales sobre la transparencia, la ética y el futuro de la interacción digital entre el gobierno y los ciudadanos.
La Revelación: IA al Servicio de la Seguridad Nacional
La noticia, que emerge de un documento oficial recientemente publicado, ha sacudido el panorama de la tecnología y la política. El Departamento de Seguridad Nacional (DHS) de Estados Unidos ha confirmado su incursión en el uso de la Inteligencia Artificial (IA) generativa, empleando herramientas de vanguardia de gigantes tecnológicos como Google y Adobe para la creación y edición de contenido multimedia destinado al público. Este inventario de casos de uso de IA, divulgado el pasado miércoles, detalla cómo el DHS está integrando estas tecnologías en diversas operaciones, desde la ciberseguridad hasta la generación de borradores de documentos. La implementación de la IA en una entidad tan crítica como el DHS no solo subraya la madurez de estas tecnologías, sino que también abre un debate necesario sobre sus implicaciones en la esfera pública y la confianza ciudadana.
Específicamente, el documento revela que el DHS está utilizando el generador de video Veo 3 de Google, parte de su suite Flow, y Adobe Firefly para «editar imágenes, videos u otros materiales de relaciones públicas usando IA». La magnitud de esta adopción es considerable, con estimaciones que sugieren que la agencia posee entre 100 y 1,000 licencias para estas herramientas. Esta cifra no solo demuestra un compromiso serio con la integración de la Inteligencia Artificial en sus operaciones, sino que también plantea preguntas sobre la escala y la diversidad del contenido que podría estar generándose o modificándose con estas herramientas avanzadas.
¿Por Qué Ahora? El Contexto de la Comunicación Gubernamental Digital
La adopción de la IA generativa por parte del DHS no ocurre en un vacío. Se enmarca en un contexto más amplio donde agencias como el Servicio de Inmigración y Control de Aduanas (ICE), que forma parte del DHS, han inundado las redes sociales con contenido para respaldar diversas iniciativas, incluyendo agendas de deportación y campañas de reclutamiento. En los últimos tiempos, hemos sido testigos de una explosión de contenido en plataformas como X (anteriormente Twitter), con publicaciones que van desde la celebración de «Navidades después de deportaciones masivas» hasta referencias a versículos bíblicos y el nacimiento de Cristo, todo ello mientras se muestran rostros de personas arrestadas y se publican anuncios para reclutar nuevos agentes. Este aluvión de contenido ha generado controversia, especialmente por el uso de música sin el permiso de los artistas, y por la apariencia, en algunos casos, de que ciertos videos eran generados por IA.
Hasta ahora, la especulación sobre el uso de herramientas de IA en este tipo de contenido carecía de confirmación oficial. Esta revelación del DHS proporciona la primera evidencia concreta de que se están utilizando generadores de IA para crear material compartido con el público. Es importante destacar que, además de las herramientas de Google y Adobe, el informe también menciona el uso de Microsoft Copilot Chat para generar borradores iniciales de documentos y resumir informes extensos, y el software Poolside para tareas de codificación, lo que indica una estrategia integral de adopción de la IA en múltiples frentes operativos de la agencia.
Las Herramientas en Detalle: Potencial y Desafíos
El generador de video Veo 3 de Google, integrado en su plataforma Flow, permite a los usuarios no solo generar clips, sino también ensamblar videos completos con IA, incluyendo sonido, diálogo y ruido de fondo, resultando en producciones hiperrealistas. Por su parte, Adobe Firefly, lanzado en 2023, ha destacado por su compromiso de no utilizar contenido con derechos de autor en su entrenamiento o salida, ofreciendo una solución ética para la generación de videos, imágenes, bandas sonoras y voz. Estas capacidades transforman radicalmente el proceso de creación de contenido, permitiendo una producción más rápida, eficiente y escalable. Sin embargo, también abren la puerta a nuevos desafíos en cuanto a la autenticidad y la verificación del contenido digital.
Ética, Transparencia y la Presión de la Industria Tecnológica
La integración de la IA generativa en la comunicación gubernamental plantea profundas preguntas éticas y de transparencia. Aunque empresas como Adobe ofrecen opciones para «marcar con agua» los videos creados con sus herramientas para indicar que son generados por IA, esta divulgación no siempre permanece intacta cuando el contenido se sube y comparte en diferentes sitios. Esta dificultad para verificar el origen real del contenido genera una brecha de confianza y la imposibilidad de discernir si un mensaje oficial es obra de un ser humano o de un algoritmo, lo cual es crucial en un contexto de seguridad nacional y comunicaciones sensibles. La línea entre la información y la posible desinformación generada por algoritmos se vuelve peligrosamente difusa.
La preocupación no se limita al público. Trabajadores de grandes empresas tecnológicas, incluyendo más de 140 empleados y ex-empleados de Google y más de 30 de Adobe, han estado ejerciendo presión sobre sus empleadores para que tomen una postura en contra de ciertas actividades de ICE y el uso de sus tecnologías en contextos controvertidos. Este activismo interno subraya la creciente conciencia social y ética dentro de la industria tecnológica sobre cómo sus creaciones son utilizadas por entidades gubernamentales. Es un eco de eventos pasados, como la eliminación por parte de Google y Apple de aplicaciones destinadas a rastrear avistamientos de ICE en 2025, citando riesgos de seguridad, lo que demuestra que el escrutinio público y corporativo sobre la colaboración tecnología-gobierno es constante y creciente.
Más Allá del Video: Otros Usos Controversiales de la IA en el DHS
El mismo documento que reveló el uso de generadores de video con IA también aportó nuevos detalles sobre el despliegue de otros productos de IA más especializados dentro de la agencia. Un ejemplo destacado es una aplicación de reconocimiento facial utilizada por ICE, un hecho que ya había sido reportado inicialmente por 404Media en junio del año anterior. Este tipo de tecnología, con sus implicaciones para la privacidad y las libertades civiles, añade otra capa de complejidad al debate sobre la supervisión y la regulación de la IA en el sector público. La acumulación de estas revelaciones pinta un cuadro de una agencia gubernamental que está adoptando activamente diversas facetas de la IA, lo que exige una mayor atención y un marco regulatorio robusto.
El Futuro de la Comunicación Gubernamental en la Era de la IA
La adopción de la IA generativa por parte del DHS es un claro indicador de que la Inteligencia Artificial ya no es una tecnología emergente, sino una herramienta integral en la operación de las instituciones más importantes del estado. Este desarrollo tiene profundas implicaciones para la comunicación gubernamental. Por un lado, ofrece una eficiencia y una capacidad de alcance sin precedentes, permitiendo a las agencias producir contenido de alta calidad de forma rápida y adaptada a diversas audiencias. Por otro lado, introduce riesgos significativos relacionados con la desinformación, la manipulación de la percepción pública y la erosión de la confianza en las fuentes oficiales.
La pregunta clave no es si los gobiernos usarán la IA, sino cómo la usarán y bajo qué salvaguardias. Es imperativo que se establezcan políticas claras que exijan transparencia en el uso de la IA, la divulgación obligatoria de contenido generado algorítmicamente y un marco ético robusto que proteja los derechos ciudadanos y la integridad de la información pública. A medida que la IA continúa evolucionando, la sociedad debe insistir en que estas herramientas se utilicen para el bien público, con responsabilidad y bajo un escrutinio constante. La capacidad de las agencias gubernamentales para influir en la opinión pública a través de contenido generado por IA es un poder inmenso, y como tal, debe ser manejado con la máxima cautela y supervisión.
Conclusión: La revelación del uso de IA de Google y Adobe por parte del DHS marca un momento crucial en la intersección de la tecnología y el gobierno. Si bien la eficiencia y la sofisticación que estas herramientas ofrecen son innegables, la necesidad de transparencia, ética y responsabilidad algorítmica se vuelve más urgente que nunca. Es fundamental que, a medida que el Estado avanza en la integración de la IA en sus funciones comunicativas y operativas, se establezcan mecanismos sólidos para garantizar que esta poderosa tecnología sirva a los intereses de la ciudadanía y no se convierta en una herramienta para el opacamiento o la manipulación. El debate público y la presión de la industria tecnológica serán cruciales para moldear un futuro donde la IA en el gobierno opere con la máxima integridad.
Fuente original: DHS is using Google and Adobe AI to make videos