Desafío al Hype de la IA: ¿Por Qué los Expertos en Seguridad Mantienen su Urgente Alerta Global ante la AGI?
Publicado el 16-12-2025
En un panorama tecnológico donde la euforia y el escepticismo sobre la inteligencia artificial compiten, una influyente comunidad de expertos persiste en su advertencia sobre los riesgos existenciales de una Inteligencia Artificial General (AGI). A pesar de los recientes reveses y el descenso de las expectativas, sus voces resuenan con una urgencia que no se diluye.
La comunidad de la seguridad de la IA, a menudo categorizada como «AI doomers» o alarmistas, está compuesta por investigadores, científicos y expertos en políticas que sostienen una premisa fundamental: la inteligencia artificial, si se vuelve suficientemente avanzada, podría plantear un riesgo «muy, muy grave» para la humanidad. Aunque muchos prefieren describirse como defensores de la seguridad de la IA, su preocupación central gira en torno a la posibilidad de que sistemas de IA fuera de control, particularmente una vez que alcancen o superen la Inteligencia Artificial General (AGI) —una tecnología capaz de igualar o superar las capacidades cognitivas humanas—, pongan en jaque nuestra existencia. Esta perspectiva, si bien no es universalmente aceptada en el vasto campo de la IA, ha ganado una tracción notable en los últimos años, influenciando políticas gubernamentales y fomentando el llamado a la creación de «líneas rojas» internacionales para mitigar los peligros potenciales.
El Cambio de Viento: Entre el Hype y la Realidad de la IA
Los últimos seis meses han traído consigo un giro perceptible en el discurso público y la percepción de la inteligencia artificial. La conversación se ha visto dominada por el temor a una «burbuja de la IA», con empresas tecnológicas invirtiendo sumas colosales en centros de datos sin una certeza clara de que la demanda futura justificará tales infraestructuras. Esta atmósfera de cautela se intensificó con el lanzamiento de GPT-5 de OpenAI, un modelo precedido por un hype sin precedentes, pero cuya recepción final fue, para muchos, algo decepcionante. Las expectativas de un salto monumental hacia la AGI no se cumplieron del todo, eclipsadas por fallos técnicos y decisiones empresariales controvertidas, lo que llevó a algunos usuarios a sentir que el modelo era, en el uso diario, un «paso atrás».
Este panorama ha dado pie a un resurgimiento del bando de los «aceleracionistas de la IA», quienes argumentan que el progreso no es suficientemente rápido y que la industria corre el riesgo de ser ahogada por una excesiva regulación. Figuras influyentes del sector tecnológico, como David Sacks y Sriram Krishnan, han proclamado que las «narrativas apocalípticas» eran erróneas y que la noción de una AGI inminente ha sido una «distracción dañina». Este debate polarizado pone en evidencia las tensiones inherentes al desarrollo de la tecnología de IA: la búsqueda de la innovación frente a la necesidad de la seguridad y la ética.
Voces Inquebrantables: Los Expertos Mantienen el Rumbo
A pesar de este clima de escepticismo creciente, una serie de entrevistas con veinte influyentes personalidades del ámbito de la seguridad y gobernanza de la IA, incluidos los laureados Geoffrey Hinton y Yoshua Bengio, revelan una convicción inalterada. Lejos de sentirse desmoralizados, estos expertos siguen profundamente comprometidos con su causa, afirmando que la AGI no solo es posible, sino inherentemente peligrosa. Curiosamente, existe una contradicción aparente en sus posturas: por un lado, sienten cierto alivio al ver que la AGI podría estar más lejos de lo que pensaban; por otro, expresan frustración ante las políticas que parecen ir en contra de sus advertencias, percibiendo que el entusiasmo por la IA a corto plazo está socavando los esfuerzos de regulación y prevención a largo plazo.
Geoffrey Hinton: La Incertidumbre de un Pionero
El ganador del Premio Turing y Nobel de Física, Geoffrey Hinton, una de las mentes detrás del aprendizaje profundo, subraya la creciente aceptación de que la IA puede ser peligrosa, incluso por parte de figuras como Eric Schmidt. Aunque reconoce la «enorme incertidumbre» de la situación y la posibilidad de que el progreso se estanque, Hinton cree que la mayoría de los expertos prevén una «superinteligencia» en los próximos 20 años, e incluso antes, dada la capacidad de la AGI para mejorar rápidamente su propia inteligencia. Su preocupación radica en el largo plazo: ¿podrán los humanos mantener el control una vez que la IA nos supere en inteligencia? Su llamado es a la cautela y al reconocimiento de que, aunque el camino no está trazado, el impulso actual de recursos en la investigación de IA sugiere que el progreso es imparable.
Yoshua Bengio: La Brecha entre la Ciencia y la Política
Yoshua Bengio, otro pionero del aprendizaje profundo y ganador del Premio Turing, desmiente la idea de que GPT-5 haya marcado un «muro» en el progreso de la IA. Afirma que los datos científicos y los benchmarks muestran un desarrollo continuo y significativo, especialmente en áreas donde los sistemas de IA antes flaqueaban. Sin embargo, su mayor preocupación reside en la «gobernanza y seguridad de la IA», que califica de «no buena». Bengio critica la falta de comprensión de los legisladores y líderes empresariales sobre la magnitud del cambio que la IA podría traer, tratándola como «una tecnología más». Hace un paralelismo con el cambio climático, instando a no ignorar el problema y destacando que incluso una mínima probabilidad de catástrofe global es inaceptable.
Stuart Russell: El Problema de Control Sin Resolver
El profesor de la Universidad de California, Berkeley, Stuart Russell, autor de Human Compatible, insiste en que la preocupación por el riesgo existencial de la IA no es una idea «marginal» o de «ciencia ficción», dado que muchos líderes de investigación y CEOs de IA la toman en serio. Para Russell, el caso de seguridad no se basa en la inminencia, sino en el hecho fundamental de que «todavía no tenemos una solución al problema de control» de una IA superinteligente. Utiliza una poderosa analogía: si un asteroide fuera a golpear la Tierra en 2067, no esperaríamos hasta 2066 para empezar a pensar en ello. Destaca que las empresas están invirtiendo billones de dólares para lograr una IA sobrehumana sin haber resuelto cómo garantizar su seguridad, una preocupación que las coloca en un nivel de riesgo inaceptable en comparación con otras tecnologías críticas como las plantas nucleares.
Helen Toner: Credibilidad y el Efecto «El Pastorcito Mentiroso»
Helen Toner, ex miembro de la junta de OpenAI y experta en gobernanza de IA, observa una evolución de la seguridad de la IA, pasando de ideas filosóficas a campos concretos de investigación en aprendizaje automático. Aunque la gobernanza de la IA está «mejorando lentamente», su principal preocupación es la credibilidad. Teme que las «estimaciones agresivas» sobre la línea temporal de la AGI por parte de algunos en la comunidad de seguridad de la IA les estén preparando para un «momento del pastorcito mentiroso». Si las predicciones de AGI para 2027 no se cumplen, la reacción podría ser un rechazo generalizado a escuchar futuras advertencias, incluso aquellas bien fundamentadas. Esto, dice, podría socavar los esfuerzos incluso de aquellos que han adoptado una postura más matizada sobre los plazos.
Jeffrey Ladish: Más Tiempo, Misma Urgencia
Para Jeffrey Ladish, director ejecutivo de Palisade Research, dos factores principales han extendido ligeramente sus estimaciones para la AGI: la escasez de datos de alta calidad y los avances más lentos de lo esperado en modelos de razonamiento como o1 de OpenAI. Aunque ahora sitúa el inicio de una investigación y desarrollo de IA completamente automatizados en cinco o seis años, en lugar de tres, su reacción es de alivio: «¡Gracias a Dios tenemos más tiempo!». Este respiro, aunque breve, ofrece una ventana crítica para comprender mejor estos sistemas antes de que su capacidad estratégica represente una amenaza incontrolable. Sin embargo, le preocupa que el público general no perciba el ritmo real del progreso de la IA, que se está volviendo «menos legible» para el ciudadano común.
Daniel Kokotajlo: Políticas en Retroceso y Visión a Largo Plazo
Daniel Kokotajlo, autor principal del influyente escenario «AI 2027», que predice una «explosión de inteligencia» en los próximos 5 a 10 años, critica que la «política de IA parece estar empeorando», citando la aparición de PACs a favor de la IA y tuits «delirantes y/o deshonestos» de figuras pro-aceleración. A pesar de las críticas anticipadas sobre sus plazos, Kokotajlo y su equipo siempre especificaron que sus escenarios no eran predicciones inminentes, sino un aviso detallado de lo que podría venir. Para él, la situación sigue siendo básicamente la misma: la inteligencia artificial es una fuerza transformadora con riesgos significativos que requieren una atención política y de investigación urgentes, independientemente de si la AGI llega en 2027 o un poco más tarde.
La Urgencia Perdurable: Un Llamado a la Acción Inaplazable
La polarización en el debate de la inteligencia artificial es innegable. Mientras una parte de la industria y la política se apresura a desechar las advertencias de riesgo existencial como «hype» o «ciencia ficción», la comunidad de la seguridad de la IA mantiene su postura. Aunque algunos reconocen que las estimaciones de tiempo para la llegada de la AGI se han extendido ligeramente, el consenso es claro: no hay margen para la complacencia. Como apunta Stuart Russell, si la AGI es posible en las próximas décadas, «Es un jodido gran problema. Deberíamos tener mucha gente trabajando en esto».
La preocupación no se centra tanto en cuándo llegará la AGI, sino en si la sociedad estará preparada para ello. La falta de soluciones al «problema de control» y la lenta evolución de las políticas de gobernanza de la IA son los verdaderos focos de alarma. Los expertos insisten en que subestimar estos riesgos por una visión a corto plazo del «hype» o el «despliegue» de modelos es un error crítico. La automatización y las tendencias digitales están transformando el mundo a un ritmo sin precedentes, y la capacidad de la IA para auto-mejorarse sugiere que, una vez que se alcance un cierto umbral, el progreso podría acelerarse exponencialmente. Ignorar las advertencias ahora podría tener consecuencias irreparables. La pregunta no es si la AGI vendrá, sino si estaremos a la altura del desafío cuando lo haga.
Conclusión: En medio de la fluctuación entre la euforia y el desencanto en el campo de la IA, los defensores de su seguridad se mantienen firmes. Su mensaje es consistente: el riesgo de una Inteligencia Artificial General descontrolada es real y requiere una acción proactiva e inmediata. Los recientes «contratiempos» en el desarrollo de modelos no desvanecen la preocupación fundamental, sino que, para algunos, solo otorgan un valioso, aunque breve, tiempo adicional para prepararse. La gobernanza, la investigación en seguridad y la conciencia pública son más cruciales que nunca para navegar por un futuro incierto pero inevitablemente dominado por la IA avanzada.
Fuente original: The AI doomers feel undeterred