Nueva herramienta del MIT que permite medir en segundos el consumo energético de la IA

Un equipo de investigación del Instituto Tecnológico de Massachusetts (MIT) y del MIT-IBM Watson AI Lab han desarrollado EnergAIzer, una herramienta de predicción rápida que estima en segundos el consumo eléctrico asociado a la ejecución de una carga de inteligencia artificial en un procesador, una GPU o un chip acelerador de IA concreto.

EnergAIzer, una herramienta que estima rápido el consumo energético de la IA y mejora la eficiencia en centros de datos.

El avance se enmarca en el aumento del consumo energético vinculado al crecimiento de la inteligencia artificial. Según estimaciones del Lawrence Berkeley National Laboratory, los centros de datos podrían llegar a representar hasta el 12% de la electricidad total consumida en Estados Unidos en 2028.

La herramienta está orientada a operadores de centros de datos, desarrolladores de algoritmos y proveedores de modelos. Su objetivo es facilitar comparaciones entre cargas de trabajo, configuraciones de hardware y velocidades de operación antes de desplegar modelos de IA o asignar recursos limitados entre distintos sistemas.

Estimación rápida del consumo energético en centros de datos

En un centro de datos, miles de unidades de procesamiento gráfico ejecutan operaciones necesarias para entrenar y desplegar modelos de inteligencia artificial. El consumo de una GPU varía en función de su configuración y de la carga que procesa en cada momento.

Los métodos tradicionales de estimación suelen descomponer una carga de trabajo en pasos individuales y emular cómo se utiliza cada módulo interno de la GPU. En cargas de IA de gran tamaño, como el entrenamiento de modelos o el preprocesamiento de datos, este tipo de simulación puede requerir horas o incluso días.

El equipo del MIT optó por una aproximación menos detallada, pero más ágil. Los investigadores observaron que muchas cargas de inteligencia artificial presentan patrones repetitivos derivados de las optimizaciones que los desarrolladores introducen para ejecutar programas de forma eficiente en GPU.

Estas optimizaciones suelen organizar el trabajo entre núcleos de procesamiento paralelo y gestionar el movimiento de bloques de datos de forma estructurada. EnergAIzer aprovecha esa regularidad para capturar patrones de uso energético de la GPU sin necesidad de reproducir cada operación con el nivel de detalle de los modelos convencionales.

EnergAIzer incorpora mediciones reales de GPU

Durante el desarrollo, los investigadores detectaron que una estimación rápida no bastaba si no incluía determinados costes energéticos adicionales. Entre ellos figura el consumo fijo necesario cada vez que una GPU prepara y configura un programa antes de ejecutarlo.

También influyen los costes asociados a cada operación realizada sobre fragmentos de datos. Además, las fluctuaciones del hardware o los conflictos al acceder a la información y moverla pueden impedir que la GPU utilice todo el ancho de banda disponible, lo que ralentiza los procesos y aumenta el consumo acumulado.

Para incorporar estas variaciones, el equipo recopiló mediciones reales procedentes de GPU y las utilizó para generar términos de corrección aplicados al modelo de estimación. EnergAIzer mantiene tiempos de respuesta de pocos segundos y mejora la precisión de sus resultados.

En las pruebas realizadas con información de cargas de trabajo reales de inteligencia artificial ejecutadas en GPU, la herramienta estimó el consumo energético con un error aproximado del 8%. Según los investigadores, esta precisión es comparable a la de métodos tradicionales que pueden tardar horas en producir resultados.

Aplicaciones para hardware actual

El sistema permite introducir datos de la carga de trabajo, como el modelo de IA que se quiere ejecutar y el número y la longitud de las entradas de usuario que deben procesarse. A partir de esa información, EnergAIzer devuelve una estimación del consumo energético en cuestión de segundos.

Los usuarios también pueden modificar la configuración de la GPU o ajustar la velocidad de funcionamiento para analizar cómo afectan esas decisiones al consumo total. El método podría aplicarse además a GPU futuras y a configuraciones de dispositivos emergentes, siempre que el hardware no cambie de forma drástica en un periodo breve.

La investigación, financiada en parte por el MIT-IBM Watson AI Lab, se presenta esta semana en el IEEE International Symposium on Performance Analysis of Systems and Software. El trabajo está liderado por Kyungmi Lee, investigadora posdoctoral del MIT, junto con Zhiye Song, Eun Kyung Lee, Xin Zhang, Tamar Eilam y Anantha P. Chandrakasan.

El equipo prevé probar EnergAIzer en las configuraciones de GPU más recientes y ampliar el modelo para aplicarlo a múltiples GPU que trabajen de forma conjunta en una misma carga de inteligencia artificial.

 
 
PATROCINIO BRONCE
Salir de la versión móvil