TecnologicAI

Google Gemini y la Huella Energética Oculta: ¿Estamos Subestimando el Costo Real de la IA?

Publicado el 02 de Septiembre de 2025

Recientemente, Google hizo público un dato que, a primera vista, podría parecer tranquilizador: una consulta típica a su aplicación Gemini consume solo unos 0.24 vatios-hora de electricidad, el equivalente a encender un microondas durante un segundo. Sin embargo, para los expertos en sostenibilidad y el equipo de MIT Technology Review, esta cifra es apenas la punta del iceberg de un desafío energético mucho mayor que la inteligencia artificial presenta a nivel global. ¿Qué es lo que Google no nos está contando sobre el impacto real de su IA?

La Cifra Engañosa: ¿Por Qué 0.24 Wh Es Más Que Insignificante?

La transparencia en el consumo energético de la inteligencia artificial es una demanda creciente por parte de investigadores y la sociedad. La revelación de Google sobre Gemini fue recibida con cierto optimismo, pues cualquier dato concreto contribuye a visibilizar un problema complejo. No obstante, la simplicidad de la cifra esconde una realidad mucho más intrincada. Un consumo de 0.24 Wh por consulta individual podría parecer mínimo, casi imperceptible en el día a día de un usuario. Pero la IA no funciona en un vacío, y el impacto total de millones o miles de millones de interacciones diarias rápidamente escala a magnitudes preocupantes. Es crucial trascender la percepción individual y analizar el ecosistema completo de la IA para comprender su verdadera huella energética.

Más Allá del Texto: La Visión Incompleta del Consumo de IA

El informe de Google se centra exclusivamente en las consultas de texto. Esta limitación es significativa, ya que la evolución de la IA apunta cada vez más hacia modelos multimodales, capaces de generar no solo texto, sino también imágenes y vídeos. Estudios previos y análisis de la industria sugieren que la generación de contenido visual o multimedia demanda un consumo energético considerablemente mayor que el procesamiento de texto. A pesar de la creciente popularidad de las herramientas de IA generativa de imágenes y vídeo en plataformas sociales, Google no ha anunciado planes para cuantificar este tipo de consumo, lo que deja una laguna crítica en el entendimiento público sobre el costo energético real de sus sistemas de IA.

Además, la cifra de 0.24 Wh representa la mediana del consumo, es decir, un punto medio en un rango de posibilidades. Consultas más extensas, respuestas complejas, o el uso de modelos de razonamiento avanzado, pueden disparar esta demanda energética. Sin datos sobre la distribución de este rango o el consumo de los casos más complejos, la mediana puede ser misleading. Para una evaluación exhaustiva del impacto de la IA en el consumo energético y la sostenibilidad, necesitamos una panorámica completa que incluya todos los tipos de consultas y la variabilidad de su procesamiento.

El Gran Secreto: ¿Cuántas Consultas Gestiona Gemini Realmente?

Quizás el aspecto más elocuente de la falta de transparencia sea la negativa de Google a revelar el número total de consultas diarias o mensuales que procesa Gemini. A pesar de las insistentes preguntas de periodistas, la compañía solo ha compartido cifras de usuarios activos mensuales, que, si bien son impresionantes (450 millones), no ofrecen una métrica directa sobre el volumen de operaciones y, por ende, el consumo agregado. Según Jeff Dean, científico jefe de Google, esta cifra es «abstracta y cambia con el tiempo», y la empresa prefiere que los usuarios se centren en el uso individual por prompt.

Esta postura contrasta notablemente con la de otros actores del sector. OpenAI, por ejemplo, ha revelado que ChatGPT procesa 2.5 mil millones de consultas diarias. Utilizando el consumo promedio de ChatGPT (0.34 Wh por consulta), se estima que esta única plataforma consume más de 300 gigavatios-hora al año, lo que equivale a la energía necesaria para abastecer casi 30,000 hogares estadounidenses anualmente. Estos números, extrapolados de un solo producto, ilustran el colosal impacto que la inteligencia artificial tiene, y seguirá teniendo, en la demanda de energía a nivel global.

La IA Invisible: Un Consumo Que Va Más Allá de los Chatbots

La inteligencia artificial no se limita a chatbots interactivos como Gemini. Está intrínsecamente tejida en el tejido de nuestra vida digital, a menudo de formas que ni siquiera percibimos. Resúmenes generados por IA aparecen en nuestras búsquedas web, incluso sin solicitarlos. Aplicaciones de correo electrónico y mensajería integran funciones de borrador o resumen automático, impulsadas por IA. La estimación de Google se restringe estrictamente a las aplicaciones de Gemini, dejando fuera una vasta gama de otras implementaciones de IA dentro de la propia Google y en todo el ecosistema digital.

Por tanto, incluso si un usuario intentara cuantificar su propio consumo energético asociado a la IA, la tarea se volvería cada vez más compleja. La conversación más relevante no debe centrarse en la culpa individual, sino en la responsabilidad colectiva de las grandes corporaciones tecnológicas y en la necesidad de políticas energéticas que aborden esta creciente demanda. Los pequeños números por consulta, por muy bajos que sean, se suman a una escala sin precedentes.

El Costo Real de la IA: Gigavatios y Megatoneladas de Carbono

Las implicaciones de esta demanda energética son profundas y multifacéticas. La infraestructura necesaria para alimentar los modelos de IA está transformando drásticamente nuestras redes eléctricas y aumentando la dependencia de fuentes de energía, a menudo fósiles. Por ejemplo, solo un centro de datos de Meta requerirá más de dos gigavatios de gas natural en Luisiana durante esta década para satisfacer su consumo energético. Google Cloud, por su parte, está invirtiendo 25 mil millones de dólares en infraestructura de IA solo en la red PJM de la costa este de EE. UU.

Las proyecciones son aún más alarmantes: para 2028, se estima que la IA podría ser responsable de 326 teravatios-hora de demanda eléctrica anual en EE. UU., generando más de 100 millones de toneladas métricas de dióxido de carbono. Estas cifras subrayan la urgencia de una mayor transparencia y una planificación estratégica en la adopción y el desarrollo de la IA, poniendo la sostenibilidad en el centro de la innovación.

Conclusión: Hacia una IA Verdaderamente Sostenible

Si bien el anuncio de Google sobre el consumo de Gemini es un paso hacia una mayor apertura, es fundamental reconocer que es solo una pequeña parte de una imagen mucho más grande y compleja. La verdadera huella energética de la inteligencia artificial es una suma de miles de millones de pequeñas interacciones y una vasta infraestructura de centros de datos, cuyo impacto ambiental y en las redes eléctricas globales es inmenso. Necesitamos que los principales actores de la IA, incluyendo a Google, proporcionen datos más completos y desagregados, que abarquen todos los tipos de procesamiento y el volumen total de operaciones. Solo así podremos tener una conversación honesta y tomar decisiones informadas sobre cómo desarrollar y desplegar la inteligencia artificial de una manera que sea verdaderamente sostenible para nuestro planeta.

Fuente original: Google’s still not giving us the full picture on AI energy use