TecnologicAI

¿Cómo Google DeepMind Entrena Agentes IA con Gemini en Goat Simulator 3? El Salto Hacia Robots Más Versátiles

Publicado el 14-11-2025

Google DeepMind está redefiniendo los límites de la inteligencia artificial con SIMA 2, un agente de juego potenciado por Gemini que aprende a navegar y resolver desafíos en mundos virtuales complejos, incluyendo el irreverente Goat Simulator 3. Esta iniciativa no solo promete revolucionar la industria de los videojuegos, sino que sienta las bases para una nueva generación de robots autónomos y versátiles en el mundo real.

SIMA 2: La Evolución de la IA Multimundo Impulsada por Gemini

La investigación en inteligencia artificial ha alcanzado un nuevo hito con el desarrollo de SIMA 2 (Scalable Instructable Multiworld Agent) por parte de Google DeepMind. Este agente representa un avance significativo hacia la creación de inteligencias artificiales de propósito general y robots más eficientes y adaptables en entornos reales. Tras una primera demostración el año pasado, SIMA 2 ha sido reconstruido sobre la potente arquitectura de Gemini, el modelo de lenguaje grande (LLM) insignia de la compañía, lo que le confiere una capacidad sin precedentes para comprender y ejecutar tareas complejas.

Los investigadores detrás de SIMA 2 destacan que el agente puede llevar a cabo una amplia gama de tareas dentro de diversos mundos virtuales 3D, desde navegar por terrenos desconocidos hasta resolver problemas de forma autónoma. Además, una de sus características más innovadoras es la capacidad de comunicarse con los usuarios a través de chat, voz o incluso mediante dibujos en pantalla, lo que permite una interacción más intuitiva y natural. Su habilidad para mejorar a través del ensayo y error, repitiendo tareas y aprendiendo de sus fallos, subraya su potencial para un aprendizaje continuo y una adaptación dinámica.

Los Videojuegos como Campos de Entrenamiento Definitivos para la IA

Durante mucho tiempo, los videojuegos han servido como un catalizador fundamental para la investigación en IA. Joe Marino, científico investigador en Google DeepMind, enfatiza la complejidad inherente incluso a las acciones aparentemente simples dentro de un juego. Encender una linterna, por ejemplo, puede requerir una serie de pasos secuenciales y la comprensión del entorno. Esta complejidad, combinada con la interactividad y la retroalimentación inmediata, convierte a los mundos virtuales en laboratorios ideales para entrenar agentes.

A diferencia de enfoques anteriores, como AlphaZero, que dominó el Go, o AlphaStar, que venció a jugadores profesionales de StarCraft 2, SIMA no se entrena para ganar un juego específico con metas predefinidas. En su lugar, el objetivo es que el agente aprenda a seguir instrucciones de código abierto dadas por humanos y a desenvolverse en entornos no estructurados. Este cambio de paradigma es crucial, ya que el mundo real rara vez presenta un conjunto de reglas tan fijo como un juego competitivo.

La Fusión de Percepción, Razonamiento y Aprendizaje Adaptativo

SIMA 2 percibe el mundo virtual procesando los píxeles de un videojuego fotograma a fotograma, utilizando esta información para determinar las acciones necesarias y cumplir sus tareas. Al igual que su predecesor, fue entrenado con grabaciones de humanos jugando una variedad de videojuegos comerciales, incluyendo títulos diversos como No Man’s Sky y el peculiar Goat Simulator 3, junto con varios mundos virtuales creados por Google DeepMind. Este entrenamiento le permitió asociar las entradas de teclado y ratón con acciones específicas dentro del juego.

La integración con Gemini ha sido un punto de inflexión. Los investigadores afirman que SIMA 2 es notablemente mejor para seguir instrucciones, haciendo preguntas para clarificar y proporcionando actualizaciones de su progreso. Además, su capacidad para deducir cómo realizar tareas más complejas de forma autónoma ha mejorado drásticamente. Las pruebas incluyeron la inserción de SIMA 2 en entornos generados desde cero por Genie 3, la última versión del modelo de mundo de Google DeepMind, donde el agente demostró su capacidad para navegar y ejecutar instrucciones en escenarios completamente nuevos.

Gemini también desempeña un papel vital en la generación de nuevas tareas para SIMA 2. Si el agente falla, Gemini puede generar consejos que SIMA 2 incorpora en intentos posteriores. Esta iteración de prueba y error, con la retroalimentación inteligente de Gemini, permite a SIMA 2 mejorar continuamente hasta alcanzar el éxito, demostrando un verdadero aprendizaje por refuerzo en un entorno dinámico.

Desafíos y el Camino Hacia Agentes Robóticos en el Mundo Real

A pesar de estos impresionantes avances, SIMA 2 sigue siendo un experimento en desarrollo con limitaciones inherentes. El agente aún presenta dificultades con tareas complejas que requieren múltiples pasos y un mayor tiempo de ejecución. Su memoria a largo plazo es limitada, recordando solo las interacciones más recientes para mantener la capacidad de respuesta, lo que restringe su habilidad para planificar a muy largo plazo. Además, su destreza en el uso del ratón y teclado en un entorno virtual todavía no iguala la de un humano.

Expertos como Julian Togelius, investigador de IA en la Universidad de Nueva York, reconocen el valor de este trabajo. Togelius señala que los intentos previos de entrenar un único sistema para jugar múltiples juegos no habían tenido mucho éxito, calificando la tarea de «modo difícil» cuando se trata de jugar en tiempo real basándose solo en la entrada visual. Aunque cauteloso, Togelius es optimista sobre la transferencia de estas habilidades a robots reales, explicando que el mundo real es a la vez más difícil (no hay un botón «A» para abrir una puerta) y más fácil (un robot sabe exactamente lo que puede hacer su cuerpo).

Sin embargo, Matthew Guzdial, investigador de IA de la Universidad de Alberta, se muestra más escéptico. Argumenta que la mayoría de los juegos tienen controles de teclado y ratón muy similares, lo que podría sobrestimar la capacidad de transferencia a juegos con entradas atípicas. También cuestiona la extrapolación de la comprensión visual de los juegos (diseñados para ser fácilmente interpretables por humanos) a la complejidad de las cámaras del mundo real.

Conclusión: El trabajo de Google DeepMind con SIMA 2 y Gemini en entornos virtuales como Goat Simulator 3 es un testimonio del inmenso potencial de la inteligencia artificial y la automatización. Aunque persisten desafíos, la visión de agentes capaces de seguir instrucciones complejas y operar en el mundo real, colaborando con humanos y adaptándose a entornos cambiantes, se acerca cada vez más. La combinación de mundos virtuales generados por Genie 3 y la retroalimentación constante de Gemini promete un «dojo» de entrenamiento sin fin para SIMA, donde los límites de la IA de propósito general apenas comienzan a explorarse. Este es solo el principio de lo que es posible en la era de los agentes inteligentes.

Fuente original: Google DeepMind is using Gemini to train agents inside Goat Simulator 3