Cada búsqueda, imagen generada o conversación con un chatbot aumenta el consumo energético de los modelos de inteligencia artificial. Actualmente, las emisiones derivadas de los centros de datos que entrenan y ejecutan estos servicios ya representan cerca del 3 % del total mundial, una cifra similar a la generada por la industria de la aviación.
Sin embargo, no todos los modelos de IA consumen la misma cantidad de energía. Algunos sistemas diseñados para tareas específicas, como TinyBERT de Intel o DistilBERT de Hugging Face, que se limitan a recuperar información de textos, usan cantidades mínimas de energía: aproximadamente 0,06 vatios-hora por cada 1.000 consultas, lo que equivale a mantener encendida una bombilla LED durante 20 segundos.
En el otro extremo, los grandes modelos de lenguaje como GPT-4 de OpenAI, Claude de Anthropic, Llama de Meta, DeepSeek o Qwen de Alibaba consumen miles de veces más energía para responder a una misma consulta. Es como encender los reflectores de un estadio solo para buscar las llaves.
¿Por qué esta diferencia tan abismal? Porque estos modelos no simplemente encuentran respuestas, sino que las generan desde cero, combinando patrones a partir de enormes volúmenes de datos. Este proceso requiere más tiempo, capacidad de cómputo y, por tanto, más energía que una simple búsqueda en internet.
Medir con precisión el tamaño de cada modelo de IA y cuánta energía consume no es sencillo. Empresas con sistemas de código cerrado, como Gemini de Google o Claude de Anthropic, no publican su código ni comparten esta información, lo que genera una abundancia de datos no verificados en la red sobre el consumo de energía y agua en comparación con una búsqueda tradicional.
En respuesta a esta falta de transparencia, se creó el proyecto AI Energy Score, una iniciativa conjunta entre Salesforce, Hugging Face, la desarrolladora Cohere y la Universidad Carnegie Mellon. Su objetivo es establecer un método estándar para medir el consumo energético de los modelos de IA. El código del proyecto es abierto y está disponible para cualquier persona interesada en colaborar. La meta es que la comunidad de desarrolladores pruebe tantos modelos como sea posible.
El proyecto analiza 10 tareas populares —como generación de texto o transcripción de audio— utilizando modelos de código abierto, y calcula el consumo energético del hardware necesario para ejecutarlas. A cada modelo se le asigna una calificación de entre una y cinco estrellas, según su eficiencia. Los resultados iniciales muestran una diferencia de hasta 62.000 veces en el consumo entre los modelos más eficientes y los menos eficientes.
Desde su lanzamiento en febrero, el proyecto también ha introducido una herramienta que compara el consumo energético de las consultas a chatbots con actividades cotidianas como cargar un celular o conducir un automóvil, con el fin de ayudar a los usuarios a comprender el impacto ambiental de su uso diario de tecnología.
El sector tecnológico es consciente de que las emisiones de la IA amenazan sus compromisos climáticos. Empresas como Microsoft y Google ya parecen no estar cumpliendo sus metas de carbono neutral. No obstante, ninguna de las grandes tecnológicas ha aceptado aplicar esta metodología en sus propios modelos de inteligencia artificial.
Pese a ello, se mantiene la esperanza de que algún día los modelos de IA puedan contribuir a combatir el cambio climático. Algunas iniciativas lideradas por DeepMind ya están ayudando a diseñar paneles solares de nueva generación, materiales para baterías, optimizar redes eléctricas y reducir la huella de carbono de la industria cementera.
Además, muchas compañías tecnológicas están invirtiendo en fuentes de energía más limpias. Microsoft, por ejemplo, apuesta por la planta nuclear de Three Mile Island, mientras que Alphabet está explorando tecnologías experimentales como los pequeños reactores modulares. Solo en 2024, el sector tecnológico fue responsable del 92 % de las nuevas adquisiciones de energía limpia en Estados Unidos.
Pero aún se necesita mayor transparencia. Empresas como OpenAI, Anthropic y otras deben empezar a divulgar el consumo energético de sus modelos. Si no lo hacen voluntariamente, será necesario establecer leyes que las obliguen a ello.
A medida que más personas usan sistemas de IA, también deberían contar con herramientas para entender cuánta energía consume cada solicitud. Esta conciencia podría llevar a un uso más responsable, evitando consultas innecesarias como averiguar la capital de un país. Además, una mayor transparencia incentivaría a las empresas a elegir modelos más pequeños y eficientes que respondan a necesidades específicas, en lugar de recurrir siempre a los sistemas más grandes y demandantes.