En la parte 2 de nuestra serie de dos partes en Impactos ambientales de inteligencia artificial generativa, MIT News Explora algunas de las formas en que los expertos están trabajando para reducir la huella de carbono de la tecnología.
Se espera que las demandas de energía de la IA generativa continúen aumentando drásticamente durante la próxima década.
Por ejemplo, un informe de abril de 2025 de la Agencia Internacional de Energía predice que la demanda global de electricidad de los centros de datos, que alberga la infraestructura informática para entrenar y desplegar modelos AI, será más del doble para 2030, a alrededor de 945 Terawatt-Hours. Si bien no todas las operaciones realizadas en un centro de datos están relacionadas con la IA, esta cantidad total es ligeramente más que el consumo de energía de Japón.
Además, un análisis de agosto de 2025 de la investigación de Goldman Sachs pronostica que aproximadamente el 60 por ciento de las crecientes demandas de electricidad de los centros de datos se cumplirán con los combustibles fósiles quemados, aumentando las emisiones mundiales de carbono en aproximadamente 220 millones de toneladas. En comparación, conducir un automóvil con gasolina durante 5,000 millas produce aproximadamente 1 tonelada de dióxido de carbono.
Estas estadísticas son asombrosas, pero al mismo tiempo, los científicos e ingenieros del MIT y en todo el mundo están estudiando innovaciones e intervenciones para mitigar la huella de carbono de AI, desde aumentar la eficiencia de los algoritmos hasta repensar el diseño de los centros de datos.
Considerando las emisiones de carbono
La conversación de reducir la huella de carbono de IA generativa generalmente se centra en el «carbono operativo», las emisiones utilizadas por los procesadores poderosos, conocidos como GPU, dentro de un centro de datos. A menudo ignora el «carbono encarnado», que son emisiones creadas por la construcción del centro de datos en primer lugar, dice Vijay Gadepally, científico senior del Laboratorio MIT Lincoln, que dirige proyectos de investigación en el Centro de Supercomputación del Laboratorio Lincoln.
Construir y modernizar un centro de datos, construido con toneladas de acero y concreto y lleno de unidades de aire acondicionado, hardware de computación y millas de cable, consume una gran cantidad de carbono. De hecho, el impacto ambiental de los centros de datos de construcción es una razón por la cual compañías como Meta y Google están explorando materiales de construcción más sostenibles. (El costo es otro factor).
Además, los centros de datos son edificios enormes, el más grande del mundo, el Parque de Información de Mongolia-Informe de China, envuelve aproximadamente 10 millones de pies cuadrados, con aproximadamente 10 a 50 veces la densidad de energía de un edificio de oficinas normal, agrega gadepalmente.
«El lado operativo es solo una parte de la historia. Algunas cosas en las que estamos trabajando para reducir las emisiones operativas también pueden prestarse a la reducción del carbono incorporado, pero debemos hacer más en ese frente en el futuro», dice.
Reducción de las emisiones de carbono operativo
Cuando se trata de reducir las emisiones operativas de carbono de los centros de datos de IA, hay muchos paralelos con las medidas de ahorro de energía en el hogar. Por un lado, simplemente podemos bajar las luces.
«Incluso si tiene las peores bombillas en su casa desde el punto de vista de la eficiencia, apagarlas o atenuarlos siempre usará menos energía que dejarlas a toda velocidad», dice Gadepally.
De la misma manera, la investigación del centro de supercomputación ha demostrado que «rechazar» las GPU en un centro de datos para que consumen aproximadamente tres décimas en la energía tiene impactos mínimos en el rendimiento de los modelos de IA, al tiempo que hace que el hardware sea más fácil de enfriar.
Otra estrategia es usar menos hardware de computación intensivo en energía.
Exigiendo cargas de trabajo generativas de IA, como capacitar a nuevos modelos de razonamiento como GPT-5, generalmente necesitan muchas GPU funcionando simultáneamente. El análisis Goldman Sachs estima que un sistema de última generación podría tener hasta 576 GPU conectadas que operan a la vez.
Pero los ingenieros a veces pueden lograr resultados similares al reducir la precisión del hardware de la computación, tal vez cambiando a procesadores menos potentes que se han sintonizado para manejar una carga de trabajo de IA específica.
También hay medidas que aumentan la eficiencia de la capacitación de modelos de aprendizaje profundo hambriento de potencia antes de implementarse.
El grupo de Gadepally descubrió que aproximadamente la mitad de la electricidad utilizada para capacitar a un modelo de IA se gasta para obtener los últimos 2 o 3 puntos porcentuales en precisión. Detener el proceso de entrenamiento temprano puede ahorrar mucha energía.
«Puede haber casos en los que el 70 por ciento de precisión sea lo suficientemente buena para una aplicación en particular, como un sistema de recomendación para el comercio electrónico», dice.
Los investigadores también pueden aprovechar las medidas de refuerzo de eficiencia.
Por ejemplo, un postdoc en el centro de supercomputación se dio cuenta de que el grupo podría ejecutar mil simulaciones durante el proceso de capacitación para elegir los dos o tres mejores modelos de IA para su proyecto.
Al construir una herramienta que les permitiera evitar alrededor del 80 por ciento de los ciclos informáticos desperdiciados, redujeron drásticamente las demandas de energía de la capacitación sin reducción en la precisión del modelo, dice Gadepally.
Aprovechando las mejoras de eficiencia
La innovación constante en el hardware de la computación, como las matrices más densas de transistores en chips de semiconductores, todavía permite mejoras dramáticas en la eficiencia energética de los modelos de IA.
A pesar de que las mejoras de eficiencia energética se han desacelerado para la mayoría de los chips desde aproximadamente 2005, la cantidad de cálculo que las GPU pueden hacer por Joule of Energy ha mejorado en un 50 a 60 por ciento cada año, dice Neil Thompson, director del Proyecto de Investigación Futuretech en el Laboratorio de Informática de Computación e Inteligencia Artificial del MIT e investigador principal de la iniciativa del MIT en la economía digital.
«La tendencia de ‘Moore’s Law’ que sigue siendo de longitud de obtener más y más transistores en ChIP todavía es importante para muchos de estos sistemas de IA, ya que ejecutar operaciones en paralelo sigue siendo muy valiosa para mejorar la eficiencia», dice Thomspon.
Aún más significativa, la investigación de su grupo indica que las ganancias de eficiencia de las arquitecturas de nuevos modelos que pueden resolver problemas complejos más rápido, consumir menos energía para lograr los mismos o mejores resultados es duplicar cada ocho o nueve meses.
Thompson acuñó el término «Negaflop» para describir este efecto. De la misma manera que un «Natawatt» representa la electricidad ahorrada debido a las medidas de ahorro de energía, un «Negaflop» es una operación informática que no es necesario realizar debido a mejoras algorítmicas.
Estas podrían ser cosas como «podar» los componentes innecesarios de una red neuronal o emplear técnicas de compresión que permitan a los usuarios hacer más con menos cálculo.
«Si necesita usar un modelo realmente poderoso hoy para completar su tarea, en solo unos años, es posible que pueda usar un modelo significativamente más pequeño para hacer lo mismo, lo que conllevaría una carga mucho menos ambiental. Hacer que estos modelos sean más eficientes es lo más importante que puede hacer para reducir los costos ambientales de la IA», dice Thompson.
Maximizando el ahorro de energía
Si bien reducir el uso general de energía de los algoritmos de IA y el hardware de computación reducirá las emisiones de gases de efecto invernadero, no toda la energía es la misma, agrega Gadepally.
«La cantidad de emisiones de carbono en una hora de 1 kilovatio varía de manera bastante significativa, incluso solo durante el día, así como durante el mes y el año», dice.
Los ingenieros pueden aprovechar estas variaciones aprovechando la flexibilidad de las cargas de trabajo de IA y las operaciones del centro de datos para maximizar las reducciones de emisiones. Por ejemplo, algunas cargas de trabajo generativas de IA no necesitan realizarse en su totalidad al mismo tiempo.
Dividir las operaciones informáticas para que algunas se realicen más tarde, cuando más de la electricidad alimentada en la red proviene de fuentes renovables como la energía solar y el viento, puede contribuir en gran medida a reducir la huella de carbono de un centro de datos, dice Deepjyoti Deka, científico investigador de la Iniciativa de Energía del MIT.
Deka y su equipo también están estudiando centros de datos «más inteligentes» donde las cargas de trabajo de IA de múltiples compañías que usan el mismo equipo informático se ajustan de manera flexible para mejorar la eficiencia energética.
«Al observar el sistema en su conjunto, nuestra esperanza es minimizar el uso de energía, así como la dependencia de los combustibles fósiles, al tiempo que mantienen los estándares de confiabilidad para las compañías y usuarios de IA», dice Deka.
Él y otros en Mitei están construyendo un modelo de flexibilidad de un centro de datos que considera las diferentes demandas de energía de capacitar a un modelo de aprendizaje profundo en comparación con ese modelo. Su esperanza es descubrir las mejores estrategias para programar y optimizar las operaciones informáticas para mejorar la eficiencia energética.
Los investigadores también están explorando el uso de unidades de almacenamiento de energía de larga duración en los centros de datos, que almacenan el exceso de energía para los momentos en que es necesario.
Con estos sistemas en su lugar, un centro de datos podría usar energía almacenada generada por fuentes renovables durante un período de alta demanda, o evitar el uso de generadores de respaldo diesel si hay fluctuaciones en la red.
«El almacenamiento de energía de larga duración podría cambiar el juego aquí porque podemos diseñar operaciones que realmente cambien la combinación de emisiones del sistema para depender más de la energía renovable», dice Deka.
Además, los investigadores de MIT y Princeton University están desarrollando una herramienta de software para la planificación de inversiones en el sector eléctrico, llamado GenX, que podría usarse para ayudar a las empresas a determinar el lugar ideal para localizar un centro de datos para minimizar los impactos y costos ambientales.
La ubicación puede tener un gran impacto en la reducción de la huella de carbono de un centro de datos. Por ejemplo, Meta opera un centro de datos en Lulea, una ciudad en la costa del norte de Suecia, donde las temperaturas más frías reducen la cantidad de electricidad necesaria para enfriar el hardware informático.
Pensando más fuera de la caja (mucho más lejos), algunos gobiernos incluso están explorando la construcción de centros de datos en la luna, donde podrían ser operados con casi todas las energía renovable.
Soluciones basadas en IA
Actualmente, la expansión de la generación de energía renovable aquí en la Tierra no se mantiene en el ritmo del rápido crecimiento de la IA, que es un obstáculo importante para reducir su huella de carbono, dice Jennifer Turliuk MBA ’25, un profesor a corto plazo, ex becario de Sloan y ex líder de práctica de la AI climática y de energía AI en el Centro de Martin Trust para el emprendimiento del MIT.
Los procesos de revisión locales, estatales y federales requeridos para un nuevo proyecto de energía renovable pueden llevar años.
Los investigadores del MIT y en otros lugares están explorando el uso de IA para acelerar el proceso de conectar nuevos sistemas de energía renovable a la red eléctrica.
Por ejemplo, un modelo de IA generativo podría optimizar los estudios de interconexión que determinan cómo un nuevo proyecto afectará la red eléctrica, un paso que a menudo lleva años completarse.
Y cuando se trata de acelerar el desarrollo e implementación de tecnologías de energía limpia, la IA podría desempeñar un papel importante.
«El aprendizaje automático es excelente para abordar situaciones complejas, y se dice que la red eléctrica es una de las máquinas más grandes y complejas del mundo», agrega Turliuk.
Por ejemplo, la IA podría ayudar a optimizar la predicción de la generación de energía solar y eólica o identificar ubicaciones ideales para nuevas instalaciones.
También podría usarse para realizar mantenimiento predictivo y detección de fallas para paneles solares u otra infraestructura de energía verde, o para monitorear la capacidad de los cables de transmisión para maximizar la eficiencia.
Al ayudar a los investigadores a reunir y analizar grandes cantidades de datos, la IA también podría informar las intervenciones de políticas específicas destinadas a obtener la mayor «explosión por el dinero» de áreas como la energía renovable, dice Turliuk.
Para ayudar a los formuladores de políticas, científicos y empresas considerar los costos y beneficios multifacéticos de los sistemas de IA, ella y sus colaboradores desarrollaron el puntaje neto de impacto climático.
El puntaje es un marco que se puede utilizar para ayudar a determinar el impacto climático neto de los proyectos de IA, considerando las emisiones y otros costos ambientales junto con posibles beneficios ambientales en el futuro.
Al final del día, las soluciones más efectivas probablemente resultarán de colaboraciones entre empresas, reguladores e investigadores, con la academia liderando el camino, agrega Turliuk.
«Todos los días cuentan. Estamos en un camino en el que los efectos del cambio climático no se conocerán completamente hasta que sea demasiado tarde para hacer algo al respecto. Esta es una oportunidad única en la vida de innovar y hacer que los sistemas de IA sean menos intensos en carbono ”, dice ella.