TecnologicAI

El Gigante Invisible: ¿Cuánto Gasta Realmente la IA y Qué Desconocemos de su Impacto Energético?

Publicado el 10-09-2025

La inteligencia artificial avanza a pasos agigantados, prometiendo revolucionar nuestra sociedad. Sin embargo, su huella energética, una cifra fundamental para entender su verdadero impacto ambiental y económico, ha permanecido en las sombras. A pesar de las recientes revelaciones de gigantes tecnológicos, ¿hemos desvelado realmente la magnitud del consumo de energía de la IA o estamos apenas rascando la superficie de un desafío monumental?

La Batalla por la Transparencia Energética de la IA: De la Opacidad a las Primeras Cifras

Durante meses, la búsqueda de una cifra precisa sobre el consumo energético de los modelos de inteligencia artificial más avanzados, como ChatGPT o Gemini, ha sido una odisea para investigadores y analistas. Esta información, crucial para comprender la huella de carbono de la IA, era celosamente guardada por las propias empresas tecnológicas. La analogía recurrente entre los expertos era intentar medir la eficiencia de un coche sin tener acceso a su motor, basándose únicamente en rumores y sonidos, una metáfora que subraya la frustración ante la falta de datos fundamentales.

La presión para arrojar luz sobre este «gigante invisible» ha escalado hasta los más altos niveles, con advertencias que sugieren que, en solo tres años, la IA podría consumir tanta electricidad como el 22% de todos los hogares de Estados Unidos. Ante este panorama, la demanda de transparencia se hizo ineludible. Este verano, hemos sido testigos de un cambio significativo, aunque aún incipiente, en la postura de algunas de las principales empresas de IA. Sam Altman de OpenAI, por ejemplo, reveló que una consulta promedio de ChatGPT utiliza aproximadamente 0.34 vatios-hora. Poco después, Google indicó que responder una pregunta en Gemini consume cerca de 0.24 vatios-hora, cifras que sorprendentemente se alinean con algunas estimaciones previas para modelos de IA de tamaño medio. Incluso la startup francesa Mistral AI publicó una estimación de sus emisiones, sumándose a este nuevo, aunque cauteloso, movimiento hacia la apertura.

Estas revelaciones marcan un hito importante, transformando la opacidad casi total en una incipiente voluntad de compartir datos. Sin embargo, ¿hemos capturado finalmente a nuestro «moby dick» energético? Los expertos advierten que, si bien es un comienzo prometedor, la imagen que tenemos aún dista mucho de ser completa y precisa. La magnitud real del consumo energético de la inteligencia artificial sigue envuelta en interrogantes.

¿Son Suficientes Estas Revelaciones? Las Preguntas Sin Respuesta

La Vaguedad de las Cifras y la Limitación a los Chatbots

A pesar de los recientes anuncios, las cifras proporcionadas por las empresas tecnológicas distan mucho de ser un manual detallado. La declaración de OpenAI, por ejemplo, se hizo en una entrada de blog sin un documento técnico adjunto, dejando sin respuesta preguntas cruciales: ¿A qué modelo específico de ChatGPT se refiere? ¿Cómo se midió el consumo? ¿Cuál es la variabilidad real de este gasto energético? De manera similar, la cifra de Google para Gemini se refiere a la cantidad media de energía por consulta, lo que no nos da una idea del impacto de las respuestas más exigentes, como aquellas que requieren un razonamiento complejo o que son particularmente extensas.

Además, un punto crítico es que estas cifras se limitan exclusivamente a las interacciones con chatbots. Esto ignora la creciente dependencia de la inteligencia artificial generativa en otras modalidades. Como señala Sasha Luccioni, líder de IA y Clima en Hugging Face, es imperativo obtener datos sobre el consumo energético de la IA cuando se trata de generar imágenes o videos, modalidades que son inherentemente más intensivas en recursos. El futuro de la IA no se limita a las conversaciones textuales, y una contabilidad completa debe reflejar esta diversidad de usos.

Es cierto que el consumo de electricidad por una única consulta a un chatbot es minúsculo, comparable al de un microondas durante apenas unos segundos. Por ello, los investigadores no sugieren que el uso individual de la IA por parte de una persona genere una carga climática significativa. El problema reside en la escala agregada y el uso masivo. Una evaluación completa de las demandas energéticas de la IA, que vaya más allá de la consulta individual para entender su impacto neto total en el clima global, requeriría información específica sobre cómo se está utilizando toda esta IA en diferentes aplicaciones.

Ketan Joshi, un analista de grupos de energía y clima, reconoce que este nivel de detalle no suele exigirse a otras industrias, pero argumenta que la situación actual de la inteligencia artificial lo justifica plenamente. «El ritmo de crecimiento de los centros de datos es innegablemente inusual», afirma Joshi. «Las empresas deberían estar sujetas a un escrutinio significativamente mayor». Este crecimiento exponencial y sin precedentes de la infraestructura dedicada a la IA, especialmente los gigantescos centros de datos, demanda una transparencia que hasta ahora ha brillado por su ausencia.

La Promesa de Eficiencia Energética de la IA: ¿Realidad o Ficción?

Las grandes corporaciones tecnológicas, con sus inversiones multimillonarias en inteligencia artificial, se enfrentan a un dilema considerable: cómo conciliar el creciente consumo energético de la IA con sus ambiciosos objetivos de sostenibilidad. Microsoft, por ejemplo, informó en mayo un aumento del 23% en sus emisiones desde 2020, atribuido en gran parte a la IA, a pesar de su promesa de ser «carbono negativo» para 2030. La propia empresa admitió que su camino hacia la neutralidad de carbono es una maratón, no un sprint, una declaración que revela la tensión entre la expansión tecnológica y las metas ambientales.

Un argumento recurrente de la industria es que la IA, por su propia naturaleza, desbloqueará eficiencias que la convertirán en un activo neto positivo para el clima. La teoría sugiere que un sistema de IA adecuadamente diseñado podría optimizar los sistemas de calefacción y refrigeración de edificios, o acelerar el descubrimiento de minerales esenciales para las baterías de vehículos eléctricos, compensando así su propia huella. Esta narrativa de IA verde es atractiva, pero ¿es realmente sostenible?

Hasta la fecha, no existen pruebas contundentes de que la inteligencia artificial haya logrado estas eficiencias a una escala significativa que compense su demanda energética. Aunque las empresas han compartido anécdotas, como Google utilizando IA para identificar focos de emisiones de metano, la falta de transparencia impide determinar si estos éxitos superan el aumento masivo en la demanda de electricidad y las emisiones generadas por el auge de la Big Tech en el campo de la IA. Mientras tanto, la planificación de nuevos centros de datos continúa sin freno, y la demanda energética de la inteligencia artificial no cesa de aumentar, planteando serias dudas sobre la viabilidad de estas promesas de eficiencia.

El Gran Interrogante: ¿Estamos Ante una Burbuja de la Demanda de IA?

Una de las incógnitas más relevantes en la ecuación energética de la IA es si la sociedad adoptará realmente la inteligencia artificial al nivel que prevén los planes de las empresas tecnológicas. OpenAI ha afirmado que ChatGPT recibe 2.500 millones de solicitudes al día. Es posible que esta cifra, y los números equivalentes para otras compañías de IA, sigan disparándose en los próximos años, validando las proyecciones del Laboratorio Nacional Lawrence Berkeley que, de materializarse, la IA por sí sola podría consumir anualmente la electricidad de una parte significativa de los hogares estadounidenses para 2028. Este escenario de hipercrecimiento es la base de las ingentes inversiones en infraestructura y desarrollo.

Sin embargo, el último verano también ha traído señales de una posible ralentización que ha empañado el optimismo desenfrenado de la industria. El lanzamiento de GPT-5 por parte de OpenAI fue percibido en gran medida como un fracaso, incluso por la propia compañía, lo que llevó a los críticos a preguntarse si la inteligencia artificial podría estar llegando a un techo en su capacidad de mejora. Cuando un grupo de investigación del MIT reveló que el 95% de las empresas no están obteniendo el retorno esperado de sus masivas inversiones en IA, las acciones del sector tambalearon. La expansión acelerada de centros de datos específicos para la IA podría convertirse en una inversión difícil de recuperar, especialmente si los ingresos para las empresas de IA siguen siendo tan elusivos como el consumo energético real.

La mayor incógnita sobre la futura carga energética de la IA no es cuánto consume una sola consulta, ni ninguna otra cifra que pueda revelarse. Es, en cambio, si la demanda alcanzará alguna vez la escala para la que las empresas están construyendo, o si la tecnología colapsará bajo su propia exageración. La respuesta a esta «pregunta de la burbuja» determinará si la actual expansión de infraestructura se convierte en un cambio duradero en nuestro sistema energético o simplemente en un pico de corta duración, con consecuencias significativas tanto para la economía como para el medio ambiente.

Conclusión: La inteligencia artificial es una fuerza transformadora, pero su ascenso viene acompañado de un costo energético que apenas comenzamos a comprender. Si bien los primeros pasos hacia la transparencia son bienvenidos, la vaguedad de las cifras, la limitación a ciertos usos y la ausencia de una auditoría integral de su impacto real plantean un panorama complejo. El dilema de si la IA será un motor de eficiencia o una carga ambiental, y la incertidumbre sobre la sostenibilidad de su actual ritmo de crecimiento, nos obligan a mantener un escrutinio constante. Para navegar el futuro de la IA de manera responsable, es fundamental exigir y proporcionar una transparencia total sobre su consumo energético y su verdadera huella de carbono, antes de que el gigante invisible se vuelva insostenible.

Fuente original: Three big things we still don’t know about AI’s energy burden