Investigadores de la Universidad de Cádiz han desarrollado una herramienta orientada a reducir el consumo energético de los modelos de lenguaje de gran tamaño, como los utilizados por ChatGPT o Gemini, mediante la optimización del software que los ejecuta. El estudio, publicado en la revista Future Generation Computer Systems, plantea mejorar el rendimiento de estos sistemas sin modificar los modelos de inteligencia artificial ya entrenados.
El trabajo se centra en los motores de inferencia, los programas encargados de utilizar los modelos de IA para generar respuestas en tiempo real. Según la UCA, la expansión de estas tecnologías en asistentes virtuales, educación e investigación científica ha incrementado de forma notable la demanda computacional, especialmente durante la generación de respuestas.
Optimización del software para reducir el impacto energético de la IA
Los investigadores señalan que el consumo diario asociado a las consultas a modelos como ChatGPT equivale al de miles de hogares. Además, estas consultas generan unas emisiones comparables a las de un automóvil al recorrer 80.000 kilómetros, una distancia cercana a dos vueltas al mundo.
La propuesta de la UCA aborda este problema desde el software y no desde la arquitectura del modelo. La herramienta automática diseñada por el equipo optimiza el código de los motores de inferencia mediante un algoritmo genético, una técnica inspirada en los procesos de evolución natural.
Este sistema analiza de forma inteligente múltiples combinaciones de posibles mejoras en el software y selecciona las que permiten aprovechar con mayor eficiencia el hardware disponible. A partir de ese proceso, genera versiones optimizadas de los motores de inferencia con el objetivo de disminuir el consumo energético y acelerar la ejecución.
Modelos de lenguaje de distintos tamaños
Las pruebas realizadas con modelos de lenguaje de diferentes tamaños muestran reducciones de consumo energético superiores al 13% y una disminución del tiempo de ejecución cercana al 20%. De acuerdo con el trabajo, estos resultados representan mejoras relevantes frente a las optimizaciones genéricas utilizadas actualmente.
El enfoque se diferencia de otras estrategias habituales, que buscan reducir el tamaño o la complejidad de los modelos y pueden afectar a su capacidad de respuesta. En este caso, la mejora se aplica sobre el software que ejecuta los modelos, lo que permite avanzar hacia sistemas de inteligencia artificial más eficientes sin alterar su funcionamiento.
El estudio ha sido realizado por Javier Jareño, José Miguel Aragón-Jurado, Juan Carlos De La Torre, Patricia Ruiz y Bernabé Dorronsoro, investigadores de la Escuela Superior de Ingeniería de Cádiz e integrantes del grupo Graphical Methods, Optimization, and Learning, GOAL. La investigación ha contado con financiación de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía en el marco del proyecto gCODE.
