Una consulta en ChatGPT consume tres veces más energía que en el buscador de Google
La inteligencia artificial (IA) es una tecnología que demanda una gran cantidad de recursos energéticos
La inteligencia artificial (IA) es una tecnología que demanda una gran cantidad de recursos energéticos, tanto para su entrenamiento como para su uso, y cuanto más avanzada sea, más necesita, hasta el punto de que una consulta en ChatGPT consume tres veces más energía que otra hecha en el buscador de Google.
Una de las empresas más destacadas del panorama actual de la IA es OpenAI, creadora del 'chatbot' ChatGPT. Se estima que necesitó hasta 78,437 kWh de electricidad para entrenar el modelo de lenguaje GPT-3, una cifra comparable al consumo de energía de un hogar medio en España 23 años.
Este dato, que comparten desde el Instituto de la Ingeniería de España (IIE), es una muestra del enorme consumo energético que realiza la inteligencia artificial, ya que suele requerir grandes cantidades de datos para su entrenamiento, a la vez que necesita de una gran cantidad de recursos computacionales y energéticos para su funcionamiento. Y a medida que los modelos de IA se vuelven más complejos, sus requisitos de energía pueden aumentar.
Uso de agua
El consumo también se traduce en los litros de agua que se usan para refrigerar los servidores dedicados a alimentar los diferentes productos y sistemas de la IA. Investigadores de las universidades de Riverside y Arlington estimaron que el entrenamiento de GPT-3 en uno de los centros de datos de más avanzados de Microsoft -socio de OpenAI en el desarrollo de la inteligencia artificial- consumió de forma directa 700,000 litros de agua dulce limpia, "suficiente para producir 370 coches BMW o 320 vehículos eléctricos Tesla".
Los centros de datos propios de Google en Estados Unidos, por su parte, consumieron 12,700 millones de litros de agua dulce en 2021 en los procesos de refrigeración de sus equipos informáticos.
El uso de esta tecnología también tiene un gran consumo. A nivel de refrigeración, una sola conversación de entre 20 y 50 preguntas con ChatGPT necesita unos 500ml de agua, según el estudio citado. Y si se atiende a la electricidad, una búsqueda de Google consume de media 0,0003 kWh, mientras que una consulta en ChatGPT entre 0,001 y 0,01 kWh, detallan desde el Instituto de la Ingeniería de España.
"Las grandes empresas tecnológicas avanzan motivadas por los beneficios económicos y las demandas del mercado, pero también son cada vez más conscientes del impacto ambiental de sus operaciones y están tomando medidas para abordar este problema", explica el miembro del Comité de Sociedad Digital del Instituto IIE, José Andrés López de Fez, que cita la adopción de energías renovables para alimentar los centros de datos, la mejora de la eficiencia energética de los servidores y la implementación de programas de reciclaje de productos electrónicos.
Un diseño de chips más eficiente, una investigación en la eficiencia energética de la IA que además del hardware atienda también a la eficiencia en los algoritmos y las prácticas de entrenamiento de modelos, el empleo de sistemas de energía renovables y neutras en carbono, mejoras en la infraestructura de datos, y políticas de reciclaje de electrónicos y economía circular, son algunas de las cuestiones que habría que atender para reducir el consumo de recursos energéticos.