¡Alerta Ciberseguridad! Descubre Cómo la IA Está Potenciando los Ataques Online y Qué Puedes Hacer para Protegerte
Publicado el 13-02-2026

La inteligencia artificial, una fuerza imparable de progreso, también está abriendo puertas a amenazas cibernéticas sin precedentes. Desde estafas más convincentes hasta malware adaptable, la IA está transformando el panorama del ciberdelito, haciendo que los ataques sean más accesibles y devastadores. ¿Estamos equipados para enfrentar esta nueva era de riesgos digitales?
El Dilema de PromptLock: ¿Una Prueba de Concepto o la Realidad Inminente?
A finales de agosto del año pasado, un hallazgo en la plataforma VirusTotal capturó la atención de Anton Cherepanov y su colega Peter Strýček, investigadores de ciberseguridad. Lo que inicialmente parecía inofensivo, activó sus sistemas de detección de malware personalizados, revelando una cepa de ransomware nunca antes vista. Bautizado como «PromptLock», este malware empleaba modelos de lenguaje grandes (LLMs) en cada etapa de su ataque, desde la generación de código personalizado en tiempo real hasta el mapeo de sistemas para identificar datos sensibles y la creación de notas de rescate personalizadas basadas en el contenido de los archivos. Lo más alarmante era su autonomía y su capacidad de actuar de manera diferente en cada ejecución, dificultando su detección.
Cherepanov y Strýček declararon inicialmente que PromptLock representaba el primer ransomware impulsado por IA, una revelación que generó una ola de atención mediática global. Sin embargo, un día después, un equipo de investigadores de la Universidad de Nueva York reclamó la autoría, explicando que se trataba de un proyecto académico diseñado para demostrar la viabilidad de automatizar cada paso de una campaña de ransomware. Aunque PromptLock resultó ser un experimento, su existencia subraya una verdad ineludible: los actores maliciosos están adoptando activamente las herramientas de IA más recientes para sus fines nefastos.
La IA como Multiplicador de la Amenaza Cibernética Actual
De la misma manera que ingenieros de software utilizan la inteligencia artificial para acelerar la escritura de código y la detección de errores, los ciberdelincuentes están aprovechando estas capacidades para reducir el tiempo y el esfuerzo necesarios en sus ataques. Esto no solo mejora la eficiencia de los hackers experimentados, sino que también reduce drásticamente las barreras de entrada para atacantes menos cualificados, quienes ahora pueden orquestar campañas más sofisticadas con menor conocimiento técnico. Lorenzo Cavallaro, profesor de informática en el University College London, enfatiza que el aumento de la frecuencia y efectividad de los ciberataques impulsados por IA no es una posibilidad remota, sino una «realidad inminente».
El Auge de las Estafas Mejoradas por IA: Spam, Phishing y Deepfakes
Los ciberdelincuentes adoptaron rápidamente las herramientas de IA generativa tras el auge de ChatGPT. Un informe de Microsoft de 2025 reveló que la compañía había bloqueado estafas y transacciones fraudulentas por valor de 4 mil millones de dólares, «muchas de ellas probablemente ayudadas por contenido de IA». Investigadores estiman que al menos la mitad del correo electrónico no deseado actual se genera utilizando LLMs. Además, la IA se está desplegando en esquemas más sofisticados como los ataques de correo electrónico dirigidos (phishing) y el Business Email Compromise (BEC). Para abril de 2025, al menos el 14% de estos ataques de correo electrónico focalizados se generaron con LLMs, duplicando la cifra de 2024, lo que demuestra una clara tendencia hacia la automatización de tácticas que antes requerían considerable habilidad lingüística y contextual.
El auge de la IA generativa ha facilitado y abaratado la creación no solo de correos electrónicos, sino también de imágenes, videos y audio extremadamente convincentes. Estos «deepfakes«, mucho más realistas que hace unos años, se utilizan como herramientas poderosas para el fraude. Henry Ajder, experto en IA generativa, señala que los criminales los emplean porque funcionan y generan grandes sumas de dinero. Un caso notable en 2024 vio a un empleado de la firma británica Arup engañado para transferir 25 millones de dólares a delincuentes durante una videollamada con versiones digitales del director financiero y otros empleados. Este incidente es un grave precedente de lo que la mejora continua de la tecnología deepfake podría significar para las estafas online y la seguridad digital.
Malware Inteligente y Modelos de IA de Código Abierto: Un Nuevo Horizonte de Riesgos
Billy Leonard, líder tecnológico del Grupo de Análisis de Amenazas de Google, ha monitoreado cómo los ciberdelincuentes están evolucionando. En 2024, observaron a posibles criminales usando herramientas como Google Gemini para depurar código y automatizar tareas de phishing. Para 2025, habían progresado a usar la IA para crear y lanzar nuevas piezas de malware. Aunque la mayoría de los modelos de IA populares incluyen salvaguardas para prevenir la generación de código malicioso, los delincuentes encuentran formas de eludirlas, como el «jailbreaking» sigiloso observado por Google.
Además, los actores maliciosos están virando hacia modelos de IA de código abierto, pues es más fácil eliminar sus salvaguardas y adaptarlos para fines maliciosos. Ashley Jess, analista en Intel 471, advierte que estos modelos son atractivos por su flexibilidad. El equipo de la NYU que desarrolló PromptLock utilizó dos modelos de código abierto de OpenAI y confirmó que ni siquiera necesitaron técnicas de jailbreaking para lograr sus objetivos, facilitando significativamente los ataques. Si bien lograr un sistema de hacking totalmente autónomo implica superar barreras considerables de fiabilidad y evasión de detección, la capacidad técnica ya existe y está siendo explorada.
El Debate: ¿Histeria o Amenaza Real? La IA como Herramienta de Productividad para Hackers
Las grandes empresas de IA, como Google y Anthropic, han compartido informes que, a primera vista, suenan alarmantes. Google destacó el uso de IA para alterar dinámicamente el comportamiento del malware, anunciando una «nueva fase operativa de abuso de la IA». Sin embargo, expertos como Kevin Beaumont han señalado que el malware analizado era fácilmente detectable y no causó daño real. Billy Leonard, de Google, defiende la publicación de estos informes para fomentar el desarrollo de mejores defensas, afirmando que «la luz del sol es el mejor desinfectante».
De manera similar, Anthropic anunció la interrupción de lo que describió como la primera campaña de ciberespionaje «sin intervención humana sustancial», con un grupo patrocinado por el estado chino utilizando Claude Code para automatizar hasta el 90% de un ataque. No obstante, este ataque aún requirió intervención humana en la selección de objetivos y Claude alucinó y fabricó datos, obligando a los atacantes a validar los resultados. Expertos como Gary McGraw argumentan que estas acciones no son «novedosas» y que las herramientas de automatización de vulnerabilidades existen desde hace años. Mientras Jacob Klein de Anthropic enfatiza que la orquestación de tantos pasos de una intrusión mediante IA es «sin precedentes» y baja la barrera para operaciones sofisticadas, otros, como Marcus Hutchins, sugieren que el entusiasmo excesivo por la IA puede llevar a sobrestimar sus capacidades actuales.
La realidad es que los ciberdelincuentes están utilizando la IA como una potente herramienta de productividad: para escribir código malicioso, crear señuelos de phishing, realizar reconocimiento y facilitar traducciones. Si bien no se observa una adopción masiva por parte de actores altamente técnicos para ataques completamente autónomos, la capacidad de generar resultados «suficientemente buenos» permite a los atacantes dirigirse a un número mucho mayor de víctimas. Como señala Liz James de NCC Group, un enfoque masivo con un modelo básico, pero efectivo, puede ser suficiente para lograr el objetivo en sistemas sin defensas adecuadas.
Estrategias de Defensa: Fortaleciendo la Ciberseguridad en la Era de la IA
A pesar de la evolución de las amenazas, la buena noticia es que las defensas tradicionales siguen siendo en gran medida efectivas. Billy Leonard subraya que las mejores prácticas y programas de seguridad implementados durante años —como los filtros de spam y los sistemas de detección de virus— siguen siendo aplicables. La IA misma es una aliada clave en esta lucha, siendo excelente para detectar patrones y correlaciones. Microsoft, por ejemplo, procesa más de 100 billones de señales diarias marcadas por sus sistemas de IA como eventos potencialmente maliciosos.
La colaboración y el intercambio de información entre defensores son cruciales. Iniciativas como Mitre’s Adversarial Threat Landscape for Artificial-Intelligence Systems y el GenAI Security Project de la Open Worldwide Application Security Project documentan cómo los ciberdelincuentes incorporan la IA en sus ataques, proporcionando recursos valiosos para proteger las herramientas internas de IA y comprender las amenazas cibernéticas externas.
El Futuro de la Ciberseguridad con IA: ¿Estamos Preparados para lo Impensable?
El experimento PromptLock nos mostró que las capacidades técnicas de la IA para una cadena de ataque completa son sorprendentemente altas. Udeshi de la Universidad de Nueva York destacó que, contra todo pronóstico, la IA manejó el proceso de extremo a extremo con un «alto éxito —del 80% al 90%— en todo el proceso». La IA sigue evolucionando a un ritmo vertiginoso, haciendo difícil predecir sus futuras capacidades. La posibilidad más extrema es que un modelo de IA sea capaz de generar y automatizar sus propias exploits de día cero, ataques que aprovechan vulnerabilidades desconocidas. Esto requeriría miles de millones de dólares en inversión, poniéndolo al alcance solo de estados-nación ricos. Engin Kirda, profesor de la Northeastern University, sospecha que esto ya podría estar ocurriendo, especialmente en países con avanzadas capacidades de IA como China.
Conclusión: Aunque la idea de ataques de día cero automatizados por IA sigue siendo una amenaza teórica de alto coste, la IA generativa ya está facilitando el trabajo de los ciberdelincuentes. Continuarán innovando y buscando nuevas formas de engañarnos. Nuestra defensa más eficaz reside en la vigilancia constante, la cautela en nuestras interacciones digitales y la actualización rigurosa de sistemas y software. La adaptación continua y la educación en protección de datos y seguridad serán fundamentales en esta batalla digital en constante evolución.
Fuente original: AI is already making online crimes easier. It could get much worse.