TecnologicAI

Desbloqueando el Futuro: OpenAI Impulsa la Era de los Investigadores IA Totalmente Autónomos

Publicado el 21-03-2026

OpenAI, el gigante de la inteligencia artificial, ha revelado su ambiciosa «Estrella Polar»: la creación de sistemas de IA capaces de llevar a cabo investigaciones científicas complejas de forma completamente autónoma. Este giro estratégico promete redefinir no solo el panorama de la IA, sino el futuro de los descubrimientos científicos y la innovación global.

La Visión Audaz: Un Laboratorio de Investigación de IA en el Centro de Datos

OpenAI está reenfocando sus vastos recursos en un desafío monumental: construir un «investigador de IA» completamente automatizado. Este sistema basado en agentes será capaz de abordar problemas grandes y complejos por sí mismo, marcando un hito sin precedentes en la automatización avanzada. La compañía californiana ha declarado que este nuevo objetivo de investigación será su «Estrella Polar» durante los próximos años, unificando diversas ramas de investigación, incluyendo modelos de razonamiento, agentes inteligentes e interpretabilidad.

El cronograma es tan ambicioso como la visión. Para septiembre de este mismo año, OpenAI planea presentar un «becario de investigación de IA autónomo», un sistema capaz de manejar de forma independiente un número limitado de problemas de investigación específicos. Este «becario» será el precursor de un sistema de investigación multiagente totalmente automatizado, cuyo debut está programado para 2028. Según OpenAI, este investigador de IA tendrá la capacidad de abordar problemas tan vastos o intrincados que superan las capacidades humanas actuales.

Las posibles aplicaciones de esta tecnología son asombrosas. Podría abarcar desde la formulación de nuevas pruebas o conjeturas en matemáticas y física, hasta la resolución de enigmas en ciencias de la vida como la biología y la química, e incluso dilemas complejos en el ámbito empresarial y político. En esencia, cualquier problema que pueda formularse en texto, código o esquemas visuales podría ser delegado a esta herramienta, lo que abre un abanico ilimitado de posibilidades para el progreso humano.

OpenAI y la Forja de la Próxima Generación de IA

Durante años, OpenAI ha dictado la agenda de la industria de la inteligencia artificial. Su liderazgo temprano con los grandes modelos de lenguaje (LLMs) sentó las bases para tecnologías que hoy utilizan cientos de millones de personas a diario, desde ChatGPT hasta aplicaciones empresariales. Sin embargo, el panorama actual es de feroz competencia, con rivales como Anthropic y Google DeepMind empujando los límites. Lo que OpenAI decida construir a continuación no solo es crucial para su propio futuro, sino para la dirección general de la innovación en IA.

Una figura central en esta nueva estrategia es Jakub Pachocki, el científico jefe de OpenAI, encargado de establecer los objetivos de investigación a largo plazo de la compañía. Pachocki desempeñó roles clave en el desarrollo de GPT-4, un LLM revolucionario lanzado en 2023, y en los modelos de razonamiento, una tecnología que apareció en 2024 y que ahora sustenta la mayoría de los chatbots y sistemas basados en agentes. En una entrevista exclusiva, Pachocki compartió su optimismo: «Creo que nos estamos acercando a un punto en el que tendremos modelos capaces de trabajar indefinidamente de manera coherente, al igual que las personas. Por supuesto, todavía queremos que las personas estén a cargo y establezcan los objetivos. Pero creo que llegaremos a un punto en el que tendremos una especie de laboratorio de investigación completo en un centro de datos.»

Codex: El Prototipo de una Mente Investigadora

OpenAI ve en su herramienta Codex el germen del futuro investigador de IA. Lanzado en enero, Codex es una aplicación basada en agentes que puede generar código al instante para realizar diversas tareas en un ordenador. Desde el análisis de documentos y la creación de gráficos, hasta la elaboración de resúmenes diarios del correo electrónico y redes sociales, Codex ya maneja tareas de programación sustanciales de forma autónoma. Esta capacidad de Codex es la clave de la hipótesis de OpenAI: si la IA puede resolver problemas de codificación, puede resolver casi cualquier problema formulado en texto o código.

Jakub Pachocki afirma que la mayoría de los empleados técnicos de OpenAI ya utilizan Codex en su trabajo. «Espera que Codex mejore fundamentalmente», dice Pachocki. El objetivo principal es lograr que un sistema pueda operar durante períodos más prolongados con mínima supervisión humana. «Lo que realmente buscamos con un becario de investigación automatizado es un sistema al que puedas delegar tareas que a una persona le llevarían varios días», explica.

Impulsando la Autonomía: El Camino Hacia la Resolución de Problemas Complejos

La comunidad científica reconoce el valor de estos avances. Doug Downey, un científico de investigación en el Allen Institute for AI, comenta: «Hay muchas personas entusiasmadas con la construcción de sistemas que puedan hacer investigación científica de larga duración. Creo que se debe en gran parte al éxito de estos agentes de codificación. El hecho de que se puedan delegar tareas de codificación bastante sustanciales a herramientas como Codex es increíblemente útil e impresionante. Y plantea la pregunta: ¿podemos hacer cosas similares fuera de la codificación, en áreas más amplias de la ciencia?»

Para Pachocki, la respuesta es un rotundo sí. Cree que es cuestión de avanzar por el camino ya trazado. Un simple aumento en la capacidad general de los modelos también conduce a sistemas que pueden operar de forma autónoma durante más tiempo. Señala el salto de GPT-3 (2020) a GPT-4 (2023). GPT-4 fue capaz de trabajar en un problema durante mucho más tiempo que su predecesor, incluso sin entrenamiento especializado.

Los modelos de razonamiento también han aportado un impulso significativo. Entrenar a los LLMs para que resuelvan problemas paso a paso, retrocediendo cuando cometen un error o llegan a un callejón sin salida, ha mejorado su capacidad para trabajar durante períodos más largos. Pachocki está convencido de que los modelos de razonamiento de OpenAI seguirán mejorando exponencialmente.

Además, OpenAI está entrenando a sus sistemas para trabajar de forma autónoma durante más tiempo, alimentándolos con muestras específicas de tareas complejas, como desafiantes rompecabezas de concursos de matemáticas y codificación. Esto obliga a los modelos a aprender a gestionar grandes fragmentos de texto y a dividir y manejar múltiples subtareas. El objetivo no es solo ganar competiciones matemáticas, sino validar la tecnología para luego aplicarla en el mundo real. «Estamos mucho más enfocados ahora en la investigación que es relevante en el mundo real», subraya Pachocki, imaginando un futuro donde gestionar un grupo de agentes Codex será la norma en la programación.

Éxitos Recientes y Preguntas Pendientes en la Automatización Inteligente

OpenAI ha logrado éxitos notables en los últimos meses. Investigadores han utilizado GPT-5, el LLM que impulsa Codex, para descubrir nuevas soluciones a problemas matemáticos no resueltos y superar aparentes callejones sin salida en varios rompecabezas de biología, química y física. «El hecho de que estos modelos presenten ideas que a la mayoría de los doctores les llevarían semanas, al menos, me hace esperar una mayor aceleración de esta tecnología en un futuro cercano», afirma Pachocki.

No obstante, Pachocki reconoce que el camino no está exento de obstáculos y que las dudas persisten. Algunos usuarios aún no encuentran la tecnología tan útil, dependiendo de sus necesidades y estilos de trabajo. Él mismo, un programador meticuloso, no usaba el autocompletado hace un año, prefiriendo la escritura manual. Pero su perspectiva cambió al ver las capacidades de los modelos más recientes. Aunque no delegaría tareas de diseño complejas, ahora puede «ejecutar experimentos en un fin de semana que antes le habrían llevado una semana de codificación». La velocidad de progreso es innegable: «Verlo hacer algo que llevaría una semana… es difícil discutirlo».

Doug Downey, del Allen Institute, aunque entusiasmado con la idea del investigador autónomo, advierte que construir tal sistema podría ser más difícil de lo que parece. Sus pruebas con varios LLMs de alto nivel en tareas científicas, incluyendo el último modelo de OpenAI, GPT-5 (versión anterior a la 5.4), revelaron numerosos errores, especialmente al encadenar tareas. Sin embargo, Downey también admite que «las cosas se mueven rápido» y que sus resultados «podrían estar obsoletos».

Los Desafíos Éticos y la Concentración de Poder en la IA Autónoma

La posibilidad de sistemas de IA capaces de resolver problemas complejos con mínima supervisión humana plantea serias preguntas éticas. Pachocki asegura que en OpenAI se discuten estos riesgos constantemente. «Si crees que la IA está a punto de acelerar sustancialmente la investigación, incluida la investigación en IA, eso es un gran cambio en el mundo. Y viene con algunas preguntas serias sin respuesta. Si es tan inteligente y capaz, si puede dirigir todo un programa de investigación, ¿y si hace algo malo?», reflexiona.

Los riesgos son multifacéticos: el sistema podría descontrolarse, ser hackeado o simplemente malinterpretar sus instrucciones. Para abordar estas preocupaciones, la principal técnica de OpenAI es entrenar a sus modelos de razonamiento para que compartan los detalles de su trabajo a medida que avanzan. Este enfoque, conocido como monitoreo de la cadena de pensamiento, implica que los LLMs tomen notas sobre sus procesos en un «bloc de notas» virtual. Los investigadores pueden luego usar estas notas para verificar que el modelo se comporte como se espera. Recientemente, OpenAI publicó nuevos detalles sobre cómo utiliza este monitoreo internamente para estudiar a Codex y prevenir la desalineación de agentes.

«Una vez que lleguemos a sistemas que trabajen de forma mayoritariamente autónoma durante mucho tiempo en un gran centro de datos, creo que esto será algo de lo que realmente dependeremos», dice Pachocki. La idea es monitorear los «blocs de notas» del investigador de IA utilizando otros LLMs, detectando comportamientos no deseados antes de que se conviertan en un problema. Dada la complejidad de los LLMs, el control total aún está lejos. «Creo que pasará mucho tiempo antes de que realmente podamos decir, ok, este problema está resuelto», admite. Hasta entonces, Pachocki enfatiza la necesidad de restricciones, abogando por desplegar modelos muy potentes en «sandboxes» (entornos controlados y aislados) para evitar daños.

Las preocupaciones sobre el uso malintencionado de la IA son reales. Se han utilizado herramientas de IA para idear ciberataques novedosos, y existe la inquietud de que se empleen para diseñar patógenos sintéticos como armas biológicas. «Definitivamente creo que hay escenarios preocupantes que podemos imaginar», afirma Pachocki. Esta tecnología representa un poder extremadamente concentrado, sin precedentes: «Imagina que llegas a un mundo donde tienes un centro de datos que puede hacer todo el trabajo que OpenAI o Google pueden hacer. Cosas que en el pasado requerían grandes organizaciones humanas ahora serían hechas por un par de personas.»

Gobernanza y Responsabilidad: Un Desafío Global

«Creo que este es un gran desafío que los gobiernos deben resolver», añade Pachocki. Sin embargo, la confianza en que los gobiernos resuelvan estos dilemas es compleja. El gobierno de EE. UU. busca utilizar la IA en el campo de batalla, y la reciente disputa entre Anthropic y el Pentágono reveló una profunda falta de consenso social sobre las líneas rojas para el uso de esta tecnología. Poco después, OpenAI firmó un acuerdo con el Pentágono, lo que subraya la naturaleza turbia de la situación.

Al ser cuestionado sobre su responsabilidad personal como arquitecto clave del futuro de la IA, Pachocki afirmó: «Sí, siento una responsabilidad personal. Pero no creo que esto pueda resolverse solo con OpenAI, impulsando su tecnología de una manera particular o diseñando sus productos de una manera particular. Definitivamente necesitaremos mucha participación de los responsables políticos.»

El Futuro de la IA: Más Allá de la AGI

¿Estamos realmente en el camino hacia la IA que Pachocki vislumbra? Doug Downey, con dos décadas en el campo, ríe: «Ya no confío en mis predicciones sobre lo cerca o lejos que están ciertas capacidades».

La misión declarada de OpenAI es asegurar que la Inteligencia Artificial General (AGI), una tecnología hipotética que muchos creen que igualará a los humanos en la mayoría de las tareas cognitivas, beneficie a toda la humanidad. OpenAI busca ser el primero en construirla. Sin embargo, Pachocki fue rápido en aclarar su perspectiva, refiriéndose a la AGI como «tecnología económicamente transformadora».

Los LLMs, según Pachocki, no son como cerebros humanos: «Son superficialmente similares a las personas en algunos aspectos porque están entrenados principalmente con el habla humana. Pero no están formados por la evolución para ser realmente eficientes». Añade: «Incluso para 2028, no espero que tengamos sistemas tan inteligentes como las personas en todos los sentidos. No creo que eso suceda. Pero no creo que sea absolutamente necesario. Lo interesante es que no necesitas ser tan inteligente como las personas en todos sus aspectos para ser muy transformador.»

Conclusión: El audaz paso de OpenAI hacia la investigación autónoma con IA no es solo una declaración de intenciones, sino una hoja de ruta con implicaciones profundas para la ciencia, la tecnología y la sociedad. A medida que la automatización y la inteligencia artificial continúan su vertiginoso avance, el debate sobre la ética, la gobernanza y el impacto de estas «mentes investigadoras» se vuelve más crucial que nunca. El futuro de la innovación, y de cómo lo gestionamos, está siendo reescrito por las decisiones que se toman hoy en laboratorios como el de OpenAI.

Fuente original: OpenAI is throwing everything into building a fully automated researcher