TecnologicAI

La Era de la Persuasión IA en las Elecciones: Un Cambio Sísmico para la Democracia Global

Publicado el 06-12-2025

La inteligencia artificial ha trascendido la mera imitación para convertirse en una poderosa herramienta de persuasión política, capaz de moldear opiniones a gran escala y bajo costo. ¿Estamos preparados para este desafío que amenaza la integridad electoral y la soberanía democrática?

El Despertar de una Nueva Amenaza: Más Allá de los Deepfakes

Recordamos el escalofriante incidente de enero de 2024 en New Hampshire, donde una llamada automatizada con la voz sintética del entonces presidente Joe Biden instaba a los demócratas a «guardar su voto» y abstenerse de las primarias. Aquel episodio fue una vívida demostración de cómo la inteligencia artificial, incluso en sus fases tempranas, podía ser utilizada para la desinformación electoral. En ese momento, la tecnología de «deepfakes» o medios sintéticos generados por IA ya generaba preocupación, anticipando un futuro donde videos y audios falsos, pero increíblemente realistas, inunden el panorama informativo, como lo prometen herramientas avanzadas como OpenAI Sora.

Sin embargo, esta es solo la punta del iceberg. La verdadera amenaza no reside únicamente en la capacidad de la IA para imitar voces o rostros, sino en su creciente habilidad para *persuadir* activamente. Nuevas investigaciones, publicadas recientemente, revelan el poder de la persuasión algorítmica. Dos estudios revisados por pares demostraron que los chatbots de IA pueden influir significativamente en las opiniones de los votantes, superando con creces la efectividad de la publicidad política tradicional. Esta transición de la imitación a la persuasión activa representa un cambio fundamental que exige nuestra atención inmediata y profunda, redefiniendo las dinámicas de las campañas políticas y la formación de la opinión pública.

Cómo la IA Diseña la Persuasión Personalizada

La IA moderna va mucho más allá de copiar; sostiene conversaciones, interpreta emociones y adapta su tono para maximizar su impacto persuasivo. Los modelos de lenguaje avanzados no solo generan texto, sino que pueden orquestar a otras IAs, dirigiendo modelos de imagen, video y voz para crear el contenido más convincente para cada segmento de audiencia. Es fácil imaginar un sistema de persuasión coordinado: una IA redacta el mensaje, otra genera los elementos visuales, una tercera lo distribuye en diversas plataformas y monitoriza su efectividad, todo ello sin intervención humana directa.

Hace apenas una década, lanzar una campaña de influencia online efectiva requería «ejércitos» de personas manejando cuentas falsas y granjas de memes. Hoy, este tipo de trabajo puede automatizarse de forma económica e invisible. La misma tecnología que potencia los asistentes de servicio al cliente o las aplicaciones de tutoría puede ser reorientada para influir en opiniones políticas o amplificar narrativas gubernamentales. Esta persuasión no se limita a anuncios pagados o llamadas robóticas; puede integrarse sutilmente en las herramientas que usamos a diario: redes sociales, aplicaciones de aprendizaje de idiomas, plataformas de citas, o incluso asistentes de voz desarrollados por actores con agendas políticas específicas. Esto podría provenir tanto de actores malintencionados utilizando las APIs de herramientas populares, como de aplicaciones completamente nuevas diseñadas con la persuasión como característica intrínseca.

El Alarmante Costo de la Influencia Masiva

Lo más preocupante es la accesibilidad y el bajo costo de esta tecnología. Por menos de un millón de dólares, es posible generar mensajes personalizados y conversacionales para cada votante registrado en Estados Unidos. El cálculo es simple: si asumimos unas 10 interacciones breves por persona (alrededor de 2.700 tokens de texto) y aplicamos las tarifas actuales de la API de ChatGPT, el costo total para 174 millones de votantes registrados apenas superaría el millón de dólares. Los cruciales 80.000 votantes indecisos que decidieron las elecciones de 2016 podrían ser objetivo de una campaña por menos de 3.000 dólares. Esta democratización del poder de la persuasión digital abre la puerta a un espectro mucho más amplio de actores, desde organizaciones políticas hasta grupos de presión y gobiernos extranjeros, para influir en el proceso democrático con una eficiencia sin precedentes.

La Evidencia Científica Aumenta: Un Futuro Electoral Reimaginado

Aunque inicialmente hubo indicaciones de que la amenaza de la IA para las elecciones podría estar exagerada, una creciente cantidad de investigaciones sugiere que la situación está cambiando rápidamente. Estudios recientes han demostrado que modelos como GPT-4 pueden superar las capacidades persuasivas de expertos en comunicación al generar declaraciones sobre temas políticos polarizantes en EE. UU., siendo más persuasivos que los humanos no expertos en dos tercios de las ocasiones cuando debaten con votantes reales.

Dos estudios importantes publicados recientemente extienden estos hallazgos a contextos electorales reales en Estados Unidos, Canadá, Polonia y el Reino Unido. Estos estudios revelan que conversaciones breves con chatbots pueden modificar las actitudes de los votantes hasta en 10 puntos porcentuales. En el caso de los participantes estadounidenses, sus opiniones se modificaron casi cuatro veces más que en respuesta a anuncios políticos probados de 2016 y 2020. Cuando los modelos se optimizaron explícitamente para la persuasión, el cambio se disparó a 25 puntos porcentuales, una diferencia casi inimaginable que podría cambiar el rumbo de cualquier elección.

Accesibilidad Universal y el Peligro de los Modelos de Código Abierto

Si bien antes el acceso a modelos avanzados de IA estaba limitado a empresas con grandes recursos, los modelos de lenguaje a gran escala (LLM) son cada vez más fáciles de usar. Grandes proveedores como OpenAI, Anthropic y Google implementan políticas de uso, filtros de seguridad automatizados y monitoreo de cuentas para mitigar el uso indebido. Sin embargo, estas restricciones solo se aplican al tráfico que pasa por sus plataformas. No se extienden al floreciente ecosistema de modelos de código abierto y «open-weight», que pueden ser descargados por cualquiera con una conexión a internet. Aunque suelen ser más pequeños y menos capaces que sus contrapartes comerciales, la investigación ha demostrado que, con una cuidadosa configuración y ajuste, estos modelos pueden igualar el rendimiento de los sistemas comerciales líderes.

Esto significa que actores de todo tipo, desde organizaciones bien financiadas hasta colectivos de base, tienen un camino claro para desplegar IA políticamente persuasiva a gran escala. Ya se han visto demostraciones tempranas en otras partes del mundo. En las elecciones generales de India de 2024, se invirtieron decenas de millones de dólares en IA para segmentar votantes, identificar indecisos y entregar mensajes personalizados a través de llamadas automáticas y chatbots. En Taiwán, se ha documentado que operaciones vinculadas a China utilizan IA generativa para producir desinformación más sutil, desde deepfakes hasta resultados de modelos de lenguaje sesgados hacia la narrativa del Partido Comunista Chino.

Es solo cuestión de tiempo antes de que esta tecnología se manifieste plenamente en las elecciones de EE. UU., si es que no lo ha hecho ya. Adversarios extranjeros como China, Rusia e Irán, que ya mantienen redes de granjas de trolls y operadores de influencia encubiertos, están bien posicionados para ser los primeros en moverse. Combinadas con modelos de lenguaje de código abierto que generan contenido político fluido y localizado, estas operaciones pueden ser «sobrecargadas». De hecho, ya no es necesario que los operadores humanos comprendan el idioma o el contexto. Con un ligero ajuste, un modelo puede hacerse pasar por un organizador vecinal, un representante sindical o un padre descontento sin que una persona pise el país. Las propias campañas políticas probablemente les seguirán de cerca. Cada operación importante ya segmenta votantes, prueba mensajes y optimiza la entrega. La IA reduce drásticamente el costo de todo esto. En lugar de probar un eslogan en encuestas, una campaña puede generar cientos de argumentos, entregarlos uno a uno y observar en tiempo real cuáles cambian las opiniones. La persuasión se ha vuelto efectiva y barata, y el campo de juego está abierto para todos, con muy pocas reglas.

El Peligroso Vacío Regulatorio Global

La mayoría de los legisladores no han logrado ponerse al día con esta evolución tecnológica. Durante los últimos años, la atención se ha centrado en los deepfakes, ignorando la amenaza más amplia y sutil de la persuasión algorítmica. Mientras algunos gobiernos extranjeros han comenzado a tomar el problema más en serio, la disparidad en la respuesta global es alarmante. La Ley de IA de la Unión Europea de 2024, por ejemplo, clasifica la persuasión relacionada con elecciones como un caso de uso de «alto riesgo», sometiendo a estrictos requisitos cualquier sistema diseñado para influir en el comportamiento de voto. Sin embargo, en Estados Unidos, la situación es muy diferente, con una negativa a establecer líneas significativas.

No existen reglas vinculantes sobre lo que constituye una operación de influencia política basada en IA, ni estándares externos para guiar la aplicación de la ley, ni una infraestructura compartida para rastrear la persuasión generada por IA en todas las plataformas. Aunque agencias como la Comisión Federal Electoral (FEC) intentan aplicar antiguas provisiones de fraude y la Comisión Federal de Comunicaciones (FCC) ha propuesto reglas de divulgación para anuncios de difusión, y algunos estados han aprobado leyes sobre deepfakes, estos esfuerzos son fragmentados y dejan la mayor parte de las campañas digitales sin regulación. En la práctica, la responsabilidad de detectar y desmantelar campañas encubiertas ha recaído casi por completo en empresas privadas, cada una con sus propias reglas, incentivos y puntos ciegos. Si bien Google y Meta han adoptado políticas que exigen la divulgación cuando los anuncios políticos son generados por IA, y TikTok prohíbe toda la publicidad política pagada, estas reglas, por modestas que sean, solo cubren una pequeña fracción del contenido comprado y exhibido públicamente. No abordan casi nada sobre las campañas de persuasión privadas y no pagadas, que podrían ser las más influyentes.

Aunque algunas empresas han comenzado a publicar informes de amenazas periódicos que identifican campañas de influencia encubiertas, estos esfuerzos son voluntarios y no están sujetos a auditorías independientes. Lo más importante es que nada de esto impide que actores decididos eviten por completo las restricciones de la plataforma utilizando modelos de código abierto e infraestructura externa, dejando una brecha significativa en nuestra defensa contra la manipulación electoral.

Una Estrategia Imperativa para Proteger la Democracia

El objetivo no es prohibir la IA de la vida política, ya que algunas de sus aplicaciones podrían incluso fortalecer la democracia. Un chatbot de candidato bien diseñado, por ejemplo, podría ayudar a los votantes a comprender las posturas del candidato en temas clave, responder preguntas directamente o traducir políticas complejas a un lenguaje sencillo. La investigación incluso ha demostrado que la IA puede reducir la creencia en teorías conspirativas. Sin embargo, se necesitan medidas urgentes para protegerse contra la amenaza de la persuasión por IA.

Pilares para la Resistencia Democrática:

  • Blindaje contra Tecnología Política Extranjera: Es crucial protegerse contra la tecnología política de fabricación extranjera con capacidades de persuasión integradas. Esto podría manifestarse como videojuegos que hacen eco de discursos políticos, plataformas de redes sociales con algoritmos de recomendación sesgados, o aplicaciones de aprendizaje de idiomas que insertan mensajes sutiles. Las evaluaciones, como el reciente análisis de DeepSeek por el Center for AI Standards and Innovation, deben centrarse en identificar y evaluar productos de IA, especialmente de países como China, Rusia o Irán, antes de su despliegue masivo. Esto requiere una coordinación estrecha entre agencias de inteligencia, reguladores y plataformas para detectar y abordar los riesgos.
  • Liderazgo en Estándares Globales: Estados Unidos debe liderar la configuración de las reglas en torno a la persuasión impulsada por la IA. Esto incluye restringir el acceso a la capacidad computacional para esfuerzos de persuasión extranjera a gran escala, ya que muchos actores alquilarán modelos existentes o capacidad de GPU para entrenar los suyos propios. También significa establecer estándares técnicos claros, a través de gobiernos, organismos de normalización y compromisos voluntarios de la industria, sobre cómo deben operar los sistemas de IA capaces de generar contenido político, especialmente durante períodos electorales sensibles. A nivel nacional, es fundamental determinar qué tipos de divulgaciones deben aplicarse a los mensajes políticos generados por IA, navegando cuidadosamente las preocupaciones de la Primera Enmienda.
  • Una Respuesta de Política Exterior Cohesionada: Los adversarios extranjeros intentarán evadir estas salvaguardas utilizando servidores offshore, modelos de código abierto o intermediarios en terceros países. Por ello, Estados Unidos necesita una respuesta de política exterior contundente. Los acuerdos multilaterales de integridad electoral deben codificar una norma básica: los estados que desplieguen sistemas de IA para manipular el electorado de otro país se arriesgan a sanciones coordinadas y exposición pública. Esto implicará construir una infraestructura de monitoreo compartida, alinear los estándares de divulgación y procedencia, y estar preparados para realizar desmantelamientos coordinados de campañas de persuasión transfronterizas, ya que muchas de estas operaciones ya se están moviendo hacia espacios opacos donde nuestras herramientas de detección actuales son débiles. Estados Unidos también debería impulsar que la manipulación electoral forme parte de la agenda más amplia en foros como el G7 y la OCDE, asegurando que las amenazas relacionadas con la persuasión por IA no se traten como problemas tecnológicos aislados, sino como desafíos de seguridad colectiva.

La tarea de asegurar las elecciones no puede recaer solo en Estados Unidos. Un sistema de radar funcional para la persuasión por IA requerirá asociaciones con nuestros socios y aliados. Las campañas de influencia rara vez se limitan a las fronteras, y los modelos de código abierto y los servidores offshore siempre existirán. El objetivo no es eliminarlos, sino aumentar el costo del uso indebido y reducir la ventana en la que pueden operar sin ser detectados en diferentes jurisdicciones.

Conclusión: La era de la persuasión por IA ya está aquí, y los adversarios de las democracias están preparados. En contraste, las leyes están desactualizadas, las salvaguardias son demasiado estrechas y la supervisión es en gran medida voluntaria. Si la última década estuvo marcada por mentiras virales y videos manipulados, la próxima será moldeada por una fuerza más sutil: mensajes que suenan razonables, familiares y lo suficientemente persuasivos como para cambiar corazones y mentes. Para China, Rusia, Irán y otros, explotar el ecosistema de información abierto es una oportunidad estratégica. Necesitamos una estrategia que trate la persuasión por IA no como una amenaza lejana, sino como un hecho presente. Esto significa evaluar sobriamente los riesgos para el discurso democrático, establecer estándares reales y construir una infraestructura técnica y legal en torno a ellos. Porque si esperamos hasta que podamos verlo sucediendo, ya será demasiado tarde.

Fuente original: The era of AI persuasion in elections is about to begin