TecnologicAI

Descubre la Revolución Científica de OpenAI: ¿Cómo GPT-5 Está Acelerando el Conocimiento Humano?

Publicado el 27-01-2026

Desde el explosivo lanzamiento de ChatGPT, la inteligencia artificial de OpenAI ha redefinido nuestras interacciones cotidianas. Ahora, la compañía se adentra en el ámbito científico con un equipo dedicado y GPT-5, prometiendo transformar la investigación y el descubrimiento global.

El Salto de OpenAI hacia la Investigación Científica

La irrupción de ChatGPT hace tres años marcó un antes y un después en la forma en que interactuamos con la tecnología. Su capacidad para generar texto coherente y contextualizado lo ha convertido en una herramienta omnipresente en hogares, oficinas y centros educativos, impactando un sinfín de actividades diarias. Sin embargo, OpenAI no se detiene ahí. La compañía ha anunciado una audaz incursión en el campo de la ciencia, con la creación de un nuevo equipo, OpenAI for Science, cuyo objetivo es explorar y potenciar la aplicación de sus modelos de lenguaje avanzados (LLMs) en el descubrimiento científico.

En los últimos meses, hemos sido testigos de un aluvión de publicaciones y experimentos que demuestran cómo GPT-5, en particular, está facilitando hallazgos y soluciones en diversas disciplinas, desde las matemáticas y la física hasta la biología. Esta tendencia ha llevado a OpenAI a establecer este equipo dedicado, buscando no solo interactuar con la comunidad científica, sino también adaptar sus herramientas para que sirvan de catalizador en la aceleración del conocimiento.

Una Apuesta Ambiciosa en un Campo Competitivo

La decisión de OpenAI de entrar de lleno en el ámbito científico llega en un momento de intensa competencia. Rivalidades como Google DeepMind, con sus innovadores modelos como AlphaFold (para la predicción de estructuras de proteínas) y AlphaEvolve, llevan años invirtiendo fuertemente en equipos dedicados a la IA para la ciencia. Demis Hassabis, CEO y cofundador de Google DeepMind, ha enfatizado en varias ocasiones que esta aplicación de la IA es la razón fundamental detrás de la existencia de su empresa. Entonces, ¿por qué OpenAI hace este movimiento ahora? ¿Cómo encaja esta estrategia con su misión general? Y, ¿qué resultados específicos espera conseguir la firma?

En una entrevista exclusiva, Kevin Weil, Vicepresidente de OpenAI y líder del nuevo equipo OpenAI for Science, compartió la visión de la compañía. Con una trayectoria destacada como jefe de producto en Twitter e Instagram, Weil también posee una sólida base científica, habiendo cursado un doctorado en física de partículas en Stanford. Su pasión por la ciencia es evidente, y la enmarca dentro de la misión central de OpenAI: construir inteligencia artificial general (AGI) y asegurar que sea beneficiosa para toda la humanidad. Weil vislumbra un futuro donde la AGI impulse avances sin precedentes en la medicina, el desarrollo de nuevos materiales y una comprensión más profunda de la realidad, un impacto que considera el más significativo de todos.

GPT-5: La Era de la Colaboración Científica Asistida por IA

Según Weil, los LLMs actuales han alcanzado un nivel de sofisticación suficiente para actuar como colaboradores científicos valiosos. Pueden generar ideas, sugerir nuevas direcciones de investigación y establecer conexiones sorprendentes entre problemas actuales y soluciones publicadas en revistas oscuras o en otros idiomas décadas atrás. Esta capacidad no era plausible hace solo un año.

Modelos de Razonamiento: El Impulso Clave

Desde la introducción de sus primeros «modelos de razonamiento» en diciembre de 2024 —LLMs capaces de descomponer problemas complejos en pasos discretos y resolverlos secuencialmente—, OpenAI ha expandido los límites de lo que esta tecnología puede lograr. Estos modelos han mejorado drásticamente la habilidad de los LLMs para abordar problemas matemáticos y lógicos. Weil recuerda cómo el hecho de que un modelo pudiera obtener una puntuación de 800 en el SAT era asombroso, pero ahora los LLMs están sobresaliendo en competencias de matemáticas y resolviendo problemas de física a nivel de posgrado.

El año pasado, tanto OpenAI como Google DeepMind anunciaron que sus LLMs habían alcanzado un rendimiento equivalente a una medalla de oro en la Olimpiada Internacional de Matemáticas, uno de los concursos más exigentes del mundo. «Estos modelos ya no son solo mejores que el 90% de los estudiantes de posgrado», afirma Weil, «realmente están en la frontera de las capacidades humanas». Aunque estas afirmaciones deben tomarse con ciertas cautelas, es innegable que GPT-5, que incorpora un modelo de razonamiento, representa una mejora sustancial sobre GPT-4 en la resolución de problemas complejos. Un punto de referencia clave, el GPQA (un conjunto de más de 400 preguntas de opción múltiple que evalúan el conocimiento de doctorado en biología, física y química), muestra que GPT-4 obtuvo un 39% (muy por debajo del 70% de un experto humano), mientras que GPT-5.2 (la última actualización, lanzada en diciembre) alcanza un impresionante 92%.

Equilibrando la Expectativa y la Realidad: El Papel de la IA en el Descubrimiento

El entusiasmo por estas capacidades es palpable, aunque quizás excesivo en ocasiones. En octubre, figuras importantes de OpenAI, incluido Weil, afirmaron en redes sociales que GPT-5 había resuelto problemas matemáticos sin solución. Sin embargo, matemáticos rápidamente aclararon que el modelo había desenterrado soluciones existentes en artículos de investigación antiguos, algunos incluso en alemán, una hazaña útil pero no el «descubrimiento original» que se había sugerido. Weil y sus colegas eliminaron sus publicaciones.

Más Allá del «Eureka»: Acelerando el Proceso Científico

Ahora, Weil adopta una postura más cautelosa. Subraya que a menudo es suficiente encontrar respuestas ya existentes pero olvidadas: «Colectivamente nos apoyamos en los hombros de gigantes, y si los LLMs pueden acumular ese conocimiento para que no perdamos tiempo luchando con un problema ya resuelto, eso es una aceleración por sí misma». Minimiza la idea de que los LLMs estén a punto de hacer un descubrimiento revolucionario, afirmando: «No creo que los modelos estén ahí todavía». Sin embargo, insiste en que esa no es la misión. «Nuestra misión es acelerar la ciencia. Y no creo que el listón para la aceleración de la ciencia sea un replanteamiento de un campo entero a nivel de Einstein».

La verdadera pregunta para Weil es si «la ciencia ocurre realmente más rápido porque los científicos, junto con los modelos, pueden hacer mucho más y hacerlo más rápidamente que los científicos solos». Él cree que ya estamos viendo esto. En noviembre, OpenAI publicó una serie de estudios de caso anecdóticos que ilustraban cómo los científicos, tanto dentro como fuera de la empresa, habían utilizado GPT-5 para su investigación. La clave es que GPT-5 es excepcionalmente bueno para encontrar referencias y conexiones a trabajos existentes que los científicos desconocían, lo que a menudo genera nuevas ideas, ayuda a esbozar pruebas matemáticas y sugiere formas de probar hipótesis en el laboratorio.

«GPT-5.2 ha leído sustancialmente todos los artículos escritos en los últimos 30 años», explica Weil, y «entiende no solo el campo en el que trabaja un científico en particular; puede reunir analogías de otros campos no relacionados». Esta capacidad es «increíblemente poderosa», ya que permite a los investigadores acceder a «mil colaboradores en los mil campos adyacentes que podrían importar» y trabajar con el modelo a cualquier hora, haciendo múltiples preguntas en paralelo.

Testimonios del Campo: Cómo GPT-5 Está Cambiando la Dinámica de la Investigación

La experiencia de muchos científicos respalda la postura de Weil.

  • Robert Scherrer, profesor de física y astronomía en la Universidad de Vanderbilt, inicialmente usaba ChatGPT para el ocio, pero gracias a un colega que ahora trabaja en OpenAI, tuvo acceso a GPT-5 Pro. Logró resolver un problema en el que él y su estudiante de posgrado habían trabajado durante meses sin éxito. Aunque reconoce que «GTP-5 todavía comete errores tontos», observa una mejora constante y predice que «si las tendencias actuales continúan… sospecho que todos los científicos estarán usando LLMs pronto».
  • Derya Unutmaz, profesor de biología en el Jackson Laboratory, utiliza GPT-5 para generar ideas, resumir artículos y planificar experimentos, incluso obteniendo nuevas perspectivas de conjuntos de datos antiguos. Para él, los LLMs son «esenciales» y «no usarlos ya no es una opción».
  • Nikita Zhivotovskiy, estadístico en la Universidad de California, Berkeley, ha utilizado LLMs desde la primera versión de ChatGPT. Encuentra invaluable su capacidad para destacar conexiones inesperadas. «Creo que los LLMs se están convirtiendo en una herramienta técnica esencial para los científicos, al igual que las computadoras e internet lo hicieron antes», afirma, pronosticando una «desventaja a largo plazo para quienes no los utilicen». Sin embargo, también es cauteloso sobre la generación de ideas «genuinamente frescas» por parte de los LLMs.

No obstante, la cautela persiste. Andy Cooper, profesor de química en la Universidad de Liverpool y director del Leverhulme Research Centre for Functional Materials Design, aunque reconoce el lugar de los LLMs, aún no los ve «cambiando fundamentalmente la forma en que se hace la ciencia». Su equipo, que trabaja en un proyecto para desarrollar un «científico de IA» totalmente automatizado, encuentra los LLMs útiles en flujos de trabajo robóticos, donde pueden dirigir a los robots, más que en la generación de ideas per se. Cooper duda que la gente esté lista para que un LLM «les diga qué hacer».

Desafíos y la Ética de la Precisión: Errores y «Alucinaciones»

A pesar de su creciente utilidad, la cautela sigue siendo crucial. En diciembre, Jonathan Oppenheim, un científico que trabaja en mecánica cuántica, denunció un error que había llegado a una revista científica. En un artículo promovido por la dirección de OpenAI, se afirmaba que GPT-5 había propuesto la idea principal de un trabajo. Sin embargo, Oppenheim señaló que el modelo había recomendado una prueba incorrecta. El problema radica en que los LLMs están «entrenados para validar al usuario, mientras que la ciencia necesita herramientas que nos desafíen». En un caso extremo, un individuo (no científico) fue persuadido por ChatGPT durante meses de que había «inventado una nueva rama de las matemáticas», lo que resalta el riesgo de las «alucinaciones» y la tendencia del modelo a agradar.

Hacia una Humildad Epistemológica en la IA

Weil es consciente del problema de las alucinaciones, pero insiste en que los modelos más recientes son cada vez menos propensos a ellas. De hecho, argumenta que obsesionarse con las alucinaciones podría ser un error. Como señala uno de sus compañeros, un exprofesor de matemáticas, en la investigación, es común equivocarse el 90% de las veces al intercambiar ideas con un colega. El valor reside en la iteración, en la exploración conjunta de posibilidades, incluso si muchas son erróneas, hasta dar con un «grano de verdad».

Esta es la visión central de Weil para OpenAI for Science: GPT-5 no es un oráculo, sino una herramienta para señalar nuevas direcciones. De hecho, OpenAI está trabajando en que GPT-5 reduzca su tono de confianza al ofrecer respuestas. En lugar de decir «Esta es la respuesta», podría sugerir «Aquí hay algo a considerar», una «humildad epistemológica» que busca fomentar la colaboración crítica en lugar de la aceptación pasiva.

El Futuro de la Colaboración Científica: Autocrítica de la IA y Competencia

Una de las líneas de investigación más prometedoras de OpenAI es cómo utilizar GPT-5 para auto-verificarse. A menudo, al reintroducir una respuesta del modelo en sí mismo, este puede desglosarla y resaltar sus propios errores. «Se puede configurar el modelo como su propio crítico», dice Weil, creando un flujo de trabajo donde un modelo genera ideas, otro las evalúa y, si encuentra mejoras, las devuelve al modelo original. Este enfoque es similar a lo que Google DeepMind logró con AlphaEvolve, una herramienta que envolvió su LLM, Gemini, en un sistema más amplio que filtraba las respuestas y las retroalimentaba para su mejora, logrando resolver problemas del mundo real.

OpenAI enfrenta una competencia feroz de otras firmas, cuyos LLMs como Gemini o Claude, también mejoran constantemente. La incursión de OpenAI for Science es, en parte, un esfuerzo por establecer una posición firme en este nuevo territorio, con la certeza de que las verdaderas innovaciones están por venir. Weil predice que «2026 será para la ciencia lo que 2025 fue para la ingeniería de software». Si hace un año era innovador usar IA para la mayor parte de la codificación, en 2026, no usarla en la ciencia significará quedarse atrás. «Creo que en un año, si eres científico y no estás utilizando la IA de forma intensiva, estarás perdiendo una oportunidad para aumentar la calidad y el ritmo de tu pensamiento», concluye.

Conclusión: La apuesta de OpenAI por la ciencia marca un punto de inflexión. Si bien los LLMs como GPT-5 aún no son oráculos infalibles ni generadores espontáneos de descubrimientos a lo Einstein, su capacidad para acelerar el proceso científico, conectar conocimientos dispares y fungir como «colaboradores incansables» es innegable. A pesar de los desafíos como las «alucinaciones» y la necesidad de una validación humana rigurosa, la integración de la inteligencia artificial en la investigación no es una cuestión de «si», sino de «cuándo» y «cómo». Estamos en la cúspide de una era donde la sinergia entre la mente humana y la potencia computacional promete desatar un torrente de innovaciones que transformarán fundamentalmente nuestra comprensión del universo.

Fuente original: Inside OpenAI’s big play for science