¿Cuánta energía consume la IA por cada consulta?

El uso de la IA consume más energía de lo que imaginas. Descubre cuánta electricidad gasta cada consulta a ChatGPT y su impacto ambiental.

Contenido

¿Sabías que hacer una consulta a ChatGPT puede consumir tanta energía como ver la televisión durante unos segundos o incluso más? Este asunto es cada vez más relevante porque el uso masivo de la inteligencia artificial y ChatGPT está elevando el consumo energético global de forma rápida, lo que tiene consecuencias en nuestro entorno ambiental y en la infraestructura eléctrica. Si entiendes cuánta energía consume la IA por cada consulta, podrás tomar decisiones más responsables en tu uso cotidiano, impulsar el uso de energías renovables en centros de datos o fomentar la transparencia energética en empresas tecnológicas.

El consumo energético en cada consulta a la IA

Estimaciones recientes y comparativas

Existen varias cifras sobre el consumo energético de cada interacción con la IA. Según Epoch AI, una consulta media usando GPT-4o consume aproximadamente 0,3 Wh (vatios-hora), una estimación mucho más baja que las previamente difundidas, gracias a modelos y hardware mejor optimizados.

Por su parte, OpenAI, vía Sam Altman, mencionó que el consumo medio por consulta es de 0,34 Wh, equivalente a lo que un horno utiliza en poco más de un segundo o una bombilla eficiente durante unos minutos.

Otra fuente estima que una consulta a ChatGPT puede requerir entre 0,0017 y 0,0026 kWh (1,7 a 2,6 Wh), lo que equivale a encender una bombilla de 40 W durante 1 a 1,5 horas.

Un estudio académico en contexto real apunta que una consulta corta a GPT-4o puede consumir 0,43 Wh, mientras que modelos más complejos (como “o3”) podrían superar los 33 Wh para peticiones extensas, multiplicando significativamente el consumo.

En resumen, los valores estimados oscilan mayoritariamente entre 0,3–0,5 Wh para consultas sencillas, aunque hay casos de consumo mucho más alto dependiendo de modelo y longitud del prompt.

Contexto comparativo

  • Google reporta que una consulta a su IA Gemini consume 0,24 Wh, lo que equivale a ver la televisión durante menos de nueve segundos, emitiendo unos 0,03 g de CO₂.
  • En contraste, GPT-5 (lanzado en agosto de 2025) consume alrededor de 18 Wh por consulta, y con su carga diaria estimada en 2.500 millones de consultas, totaliza unos 45 GWh al día, equivalente al consumo de 1,5 millones de hogares estadounidenses o al output de 2–3 centrales nucleares.

Impacto global y aspectos ambientales adicionales

Formación de modelos vs uso (inferencias)

El entrenamiento de modelos tiene un impacto energético y de carbono mucho mayor que su uso cotidiano. GPT-3, por ejemplo, emitió 552 toneladas de CO₂, lo que equivale a las emisiones anuales de 123 coches de gasolina. Modelos como BERT o BLOOM también han generado huellas destacables durante su entrenamiento.

Además, un informe proyecta que el consumo energético global de la IA podría llegar a 85–134 TWh al año para 2027, casi el 0,5 % del total eléctrico mundial.

Huella hídrica

No solo la energía importa: el enfriamiento de los centros de datos requiere grandes cantidades de agua. Se estima que en 2027 la IA podría demandar entre 4,2 y 6,6 mil millones de m³ de agua, más de la mitad de las extracciones del Reino Unido. Solo un centro de datos de 100 MW puede consumir hasta 2 millones de litros diarios, equivalente al consumo de 6 500 hogares.

Un estudio reveló también que una sola consulta de GPT-4o escalada a millones de interacciones tiene impactos equivalentes a:. electricidad equivalente al uso de 35 000 hogares, agua evaporada para la sed anual de 1,2 millones de personas, y emisiones de carbono que requerirían un bosque del tamaño de Chicago para compensar.

Repercusiones y caminos hacia la sostenibilidad

Transparencia y críticas

Google ha intentado ser más transparente al informar sobre el consumo por consulta en Gemini, señalando reducciones significativas (hasta 44× en emisiones). No obstante, expertos critican que muchos datos no incluyen emisiones indirectas o regionales. Además, a pesar de esta eficiencia por consulta, el uso masivo ha incrementado las emisiones generales en un 51 % desde 2019.

Soluciones emergentes

  • Empresas como Meta y Microsoft exploran el uso de energía nuclear y renovable para alimentar sus operaciones.
  • Se promueven técnicas como la optimización de prompts, modelos ligeros, refrigeración más eficiente y gestión dinámica de recursos.
  • También, la eficiencia energética per cápita contrasta con el efecto Jevons: avances pueden aumentar la demanda total.

Fuentes consultadas

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas

ChatGPT Atlas, el nuevo navegador de OpenAI, combina IA y web para ofrecer búsquedas conversacionales más rápidas, precisas y personalizadas.
Sora 2 de OpenAI revoluciona la generación de vídeo con IA: mayor realismo, audio integrado y accesible para todos los creadores.
Alibaba Cloud presenta Qwen, un modelo de lenguaje multimodal que combina texto y audio para transformar sectores clave con IA.
Pulse de OpenAI analiza en tiempo real el uso de ChatGPT y revela tendencias globales para comprender mejor la IA conversacional.
Gemini revoluciona la educación con su aprendizaje guiado: un tutor IA que personaliza recursos y métodos para cada estudiante.
OpenAI planea un centro de datos masivo en India para impulsar su expansión global en inteligencia artificial.

Buscar en IADirecto