¿Cuánta agua gastas con una única consulta en ChatGPT? Un análisis de la huella hídrica de la inteligencia artificial

En la era digital actual, la inteligencia artificial (IA) se ha integrado profundamente en nuestras vidas. Desde recomendaciones personalizadas hasta la generación de contenido complejo, herramientas como ChatGPT se han vuelto omnipresentes. Sin embargo, detrás de la inmediatez y la aparente intangibilidad de estas tecnologías, existe una realidad física y un coste ambiental que a menudo pasa desapercibido. La energía necesaria para alimentar los vastos centros de datos que sustentan la IA es un tema recurrente, pero ¿qué hay de la cantidad de agua? ¿Es posible que una simple consulta a un modelo de lenguaje avanzado contribuya al consumo de este recurso vital? Este post se adentra en la sorprendente huella hídrica de la IA, desglosando el impacto ambiental de nuestras interacciones digitales y ofreciendo una perspectiva necesaria sobre la sostenibilidad tecnológica.

El coste invisible de la inteligencia artificial

Two people enjoy a peaceful sunset on Batumi's rocky coast, embodying tranquility and connection.

La computación en la nube y los servicios de IA operan en una red global de centros de datos, instalaciones gigantescas que albergan miles de servidores. Estos centros son el motor oculto de nuestra sociedad digital, procesando cantidades astronómicas de información cada segundo. Tradicionalmente, la discusión sobre su impacto ambiental se ha centrado en el consumo de energía y la consiguiente huella de carbono. Sin embargo, la otra cara de la moneda, igualmente crucial, es el uso del agua. El agua es un recurso indispensable no solo en la generación de la electricidad que alimenta estos centros, sino también, y de manera muy directa, en los complejos sistemas de refrigeración que evitan el sobrecalentamiento de los equipos. Es un "coste invisible" que raramente consideramos al interactuar con nuestras aplicaciones favoritas.

Más allá de la electricidad: la huella hídrica de los centros de datos

La huella hídrica es un indicador que define el volumen total de agua dulce utilizada para producir los bienes y servicios que consumimos. Cuando hablamos de centros de datos, esta huella se divide en dos categorías principales: directa e indirecta. El uso directo de agua se refiere a la que se emplea en los sistemas de refrigeración de las instalaciones. Los servidores generan una cantidad considerable de calor, y para mantenerlos operativos y eficientes, se necesita disipar ese calor. Muchos sistemas de refrigeración, especialmente los evaporativos, dependen del uso de agua, que se evapora en el proceso para enfriar el aire o los componentes. Por otro lado, la huella hídrica indirecta abarca el agua utilizada en la generación de la electricidad que alimenta el centro de datos. Si la electricidad proviene de centrales térmicas (carbón, gas natural, nucleares), estas requieren ingentes cantidades de agua para sus procesos de refrigeración y producción de vapor. Incluso las energías renovables tienen una huella hídrica asociada a la fabricación de sus componentes y, en el caso de la hidroeléctrica, a la evaporación de los embalses. Comprender esta dualidad es fundamental para apreciar el verdadero alcance del consumo de agua en el ámbito digital.

El proceso detrás de una consulta en ChatGPT y su sed

Imagina que escribes una pregunta a ChatGPT. En milisegundos, tu solicitud viaja a través de la red hasta un centro de datos. Allí, servidores equipados con unidades de procesamiento gráfico (GPU) de alta potencia, optimizadas para tareas de IA, procesan tu entrada. El modelo de lenguaje, entrenado con billones de parámetros, genera una respuesta, que luego es enviada de vuelta a tu dispositivo. Todo este ciclo requiere una cantidad significativa de cómputo y, por ende, de energía. Cada etapa, desde el almacenamiento de datos hasta la ejecución de algoritmos complejos, genera calor y demanda electricidad, y cada una de estas demandas, directa o indirectamente, implica un consumo de agua. Es una cadena de eventos que, aunque imperceptible para el usuario final, tiene un impacto tangible en los recursos naturales.

Del clic a la respuesta: el viaje de los datos

El "viaje" de tu consulta comienza con tu dispositivo, que consume energía. Esa energía tiene una huella hídrica. Tu consulta viaja por la red, usando routers y conmutadores que también consumen energía y, por extensión, agua. Cuando la solicitud llega al centro de datos, se activa una serie de servidores. Estos servidores están constantemente encendidos, manteniendo el modelo de ChatGPT listo para responder. Las operaciones de cálculo que se realizan para generar una respuesta consumen una cantidad considerable de electricidad, lo que a su vez requiere que el centro de datos opere sus sistemas de refrigeración. Es un ciclo constante de energía y disipación de calor, donde el agua juega un papel silencioso pero esencial. Cada byte procesado, cada cálculo realizado, tiene su pequeña cuota en el gran esquema del consumo de recursos.

La estimación de la huella hídrica por consulta

Determinar la huella hídrica exacta de una única consulta en ChatGPT es un desafío complejo, ya que depende de innumerables variables: la eficiencia del centro de datos, su ubicación, el tipo de refrigeración, la fuente de energía, etc. Sin embargo, investigaciones recientes han comenzado a arrojar luz sobre estas cifras. Un estudio realizado por investigadores de la Universidad de California, Riverside, y la Universidad de Texas, Arlington, es particularmente revelador. Sugieren que el entrenamiento del modelo GPT-3, precursor de ChatGPT, en los centros de datos de Microsoft en EE. UU., habría consumido aproximadamente 700.000 litros de agua dulce. Esta cantidad es equivalente a la que se utilizaría para producir entre 300 y 370 coches eléctricos. Lo que es aún más sorprendente para el usuario común es la estimación de que una conversación de 20 a 50 preguntas y respuestas con ChatGPT podría consumir alrededor de 500 mililitros de agua, el equivalente a una botella de agua estándar. Esta cifra puede parecer pequeña individualmente, pero multiplicada por los millones de usuarios y miles de millones de consultas diarias, el volumen total se vuelve abrumador. Puedes leer más sobre este estudio aquí.

Factores que influyen en el consumo de agua

La cifra de 500 ml por conversación es una media, y la realidad es que el consumo de agua puede variar enormemente. Diversos factores juegan un papel crucial en la eficiencia hídrica de la infraestructura que soporta ChatGPT y otros modelos de IA. Comprender estos factores nos permite apreciar la complejidad del problema y las posibles vías para mitigar el impacto ambiental.

Ubicación geográfica del centro de datos

La geografía es un factor determinante. Un centro de datos situado en una región árida y cálida, como Arizona (donde Microsoft tiene instalaciones), tendrá que invertir más en sistemas de refrigeración y, potencialmente, consumir más agua que uno ubicado en un clima más frío y húmedo, como el norte de Europa. La disponibilidad de agua y las regulaciones locales también influyen en la elección de las tecnologías de refrigeración. Los centros de datos en áreas con escasez hídrica suelen verse impulsados a implementar tecnologías más eficientes en el uso del agua o a utilizar fuentes de agua no potables, como agua reciclada o tratada, aunque estas soluciones a menudo conllevan costes adicionales y desafíos tecnológicos.

Fuentes de energía

La procedencia de la electricidad es otro pilar fundamental. Si un centro de datos se alimenta principalmente de energía generada por centrales térmicas que utilizan agua para sus turbinas de vapor y sistemas de enfriamiento (carbón, gas natural, nuclear), su huella hídrica indirecta será significativamente mayor. Por el contrario, si opera con un alto porcentaje de energías renovables como la solar o la eólica, la huella hídrica indirecta de la generación eléctrica se reduce, aunque no desaparece por completo (la fabricación y mantenimiento de paneles solares o turbinas eólicas también requieren agua). La tendencia de las grandes empresas tecnológicas de invertir en parques eólicos y solares es un paso positivo en este sentido, pero la conexión total a estas fuentes sigue siendo un reto logístico.

Eficiencia de la infraestructura

La eficiencia de un centro de datos se mide a menudo con métricas como el PUE (Power Usage Effectiveness) y el WUE (Water Usage Effectiveness). Un PUE cercano a 1 indica que casi toda la energía consumida va directamente a los equipos de cómputo, no a la refrigeración o iluminación. De manera similar, un WUE bajo es deseable, señalando un uso eficiente del agua. Los avances tecnológicos en sistemas de refrigeración (como la refrigeración líquida directa a chip o la inmersión de servidores en fluidos dieléctricos) y en el diseño de los centros de datos están permitiendo reducir drásticamente el consumo de agua. Sin embargo, estas tecnologías aún no están universalmente adoptadas. En mi opinión, la inversión continua en estas innovaciones es crucial, y las empresas tecnológicas tienen la responsabilidad de liderar este cambio hacia infraestructuras más sostenibles.

El tamaño y la complejidad del modelo

No todos los modelos de IA son iguales. ChatGPT es un modelo de lenguaje grande (LLM), lo que significa que ha sido entrenado con cantidades masivas de datos y posee miles de millones de parámetros. Entrenar y ejecutar estos modelos a gran escala requiere una potencia computacional inmensa, lo que se traduce directamente en un mayor consumo de energía y, por ende, de agua. Modelos más pequeños y especializados tendrán una huella hídrica individual mucho menor. La investigación en la optimización de modelos para hacerlos más eficientes en términos de energía y cómputo es un campo activo y vital para reducir el impacto global de la IA. Cada iteración, como GPT-4, busca ser más eficiente, pero el aumento de su capacidad y complejidad a menudo compensa parcialmente estas mejoras.

Perspectivas futuras y la sostenibilidad de la IA

A medida que la IA continúa su crecimiento exponencial, la necesidad de abordar su impacto ambiental se vuelve más urgente. No podemos simplemente ignorar la "sed" de nuestros sistemas inteligentes. Afortunadamente, se están explorando diversas estrategias para construir un futuro digital más sostenible.

Innovaciones en refrigeración

La refrigeración es el área donde el uso directo de agua es más prominente. Los sistemas tradicionales de refrigeración por evaporación son efectivos pero muy intensivos en agua. Las innovaciones incluyen la refrigeración líquida directa al chip, donde el fluido refrigerante pasa directamente sobre los componentes de la CPU y GPU, mejorando la eficiencia y reduciendo la necesidad de grandes volúmenes de aire frío. Otra técnica prometedora es la inmersión de servidores completos en fluidos dieléctricos no conductivos. Estas soluciones no solo reducen el consumo de agua, sino que también pueden mejorar el rendimiento de los servidores. Además, la reutilización de agua, el tratamiento de aguas grises y el uso de agua de lluvia para la refrigeración son prácticas que cada vez ganan más terreno en los centros de datos más avanzados.

Energías renovables y centros de datos

La transición hacia fuentes de energía 100% renovables es, sin duda, la estrategia más efectiva para reducir la huella hídrica indirecta de los centros de datos. Empresas como Google y Microsoft están invirtiendo fuertemente en la compra de energía renovable y en la construcción de sus propios parques eólicos y solares. Sin embargo, el desafío de la intermitencia de las renovables y la necesidad de una red eléctrica estable y fiable son considerables. La investigación en almacenamiento de energía (baterías a gran escala) y en la gestión inteligente de la carga es crucial para asegurar que los centros de datos puedan funcionar completamente con energías limpias en todo momento. Puedes consultar el informe de sostenibilidad hídrica de Microsoft aquí.

La responsabilidad del desarrollador y del usuario

La sostenibilidad de la IA es una responsabilidad compartida. Los desarrolladores y las empresas tecnológicas tienen el imperativo de diseñar modelos y algoritmos más eficientes energéticamente, optimizar el código para reducir la carga computacional y elegir ubicaciones y tecnologías de centros de datos que minimicen el consumo de agua y energía. La transparencia en la publicación de las métricas de sostenibilidad también es vital. Como usuarios, tenemos un papel que desempeñar. Reflexionar sobre la necesidad de cada consulta, ser concisos en nuestras interacciones y ser conscientes de que cada clic tiene un impacto real, por pequeño que sea, puede contribuir a una demanda más consciente de los recursos. Personalmente, considero que la educación y la concienciación son herramientas poderosas para impulsar un cambio significativo en cómo interactuamos con la tecnología. Entender que cada interacción digital no es totalmente "gratis" en términos de recursos naturales es el primer paso hacia un uso más responsable.

Un ejercicio de comparación: ¿Es mucho o poco?

La cifra de 500 ml de agua por una conversación de ChatGPT puede sonar insignificante para algunos. Una botella de agua. Pero ¿cómo se compara con otras actividades cotidianas? Ponerlo en perspectiva nos ayuda a entender la escala real del problema.

La botella de agua y la consulta de ChatGPT

Consideremos esa botella de 500 ml. Una ducha de cinco minutos puede gastar entre 50 y 100 litros de agua. Tirar de la cadena del inodoro consume entre 3 y 7 litros. Producir una taza de café (sin contar el agua para beberla, sino para el cultivo del grano) puede llevar más de 100 litros de agua virtual. Incluso acciones como buscar algo en Google se ha estimado que consume entre 0.2 y 20 ml de agua, dependiendo de la complejidad de la búsqueda y la infraestructura subyacente. Google también publica sus esfuerzos en eficiencia hídrica.

La clave no es que una única interacción con ChatGPT consuma una cantidad desorbitada de agua por sí misma, sino que la suma de billones de interacciones diarias sí lo hace. La inteligencia artificial no es un ente aislado; es parte de una infraestructura global masiva que demanda recursos a una escala industrial. El impacto acumulativo es el que realmente importa y el que debemos monitorear. Si millones de personas utilizan ChatGPT múltiples veces al día, esas pequeñas botellas de agua se convierten rápidamente en miles de millones de litros. Es un ejemplo perfecto de cómo las pequeñas acciones individuales, al escalar, se transforman en fenómenos de gran magnitud ambiental. The Guardian también ha cubierto este tema extensamente.

Es mi convicción que, al igual que hemos aprendido a ser conscientes de nuestra huella de carbono, debemos empezar a serlo de nuestra huella hídrica digital. Las empresas tecnológicas están en la vanguardia de esta revolución de la IA y, por tanto, deben estar a la vanguardia de la sostenibilidad. La innovación no debe ir separada de la responsabilidad ambiental, sino que debe integrarla como un pilar fundamental de su desarrollo. Solo así podremos asegurar que el progreso tecnológico no comprometa los recursos vitales de nuestro planeta para las generaciones futuras. El informe de la IEA sobre centros de datos y redes de transmisión de datos ofrece una visión global sobre la energía y el impacto ambiental.

En conclusión, mientras que una sola consulta a ChatGPT no vaciará un embalse, el efecto compuesto de miles de millones de interacciones sí presenta un desafío hídrico significativo. La transparencia, la innovación en la eficiencia y la concienciación por parte de usuarios y desarrolladores serán esenciales para asegurar que el futuro de la inteligencia artificial sea tan sostenible como inteligente.

ChatGPT Huella hídrica Centros de datos Sostenibilidad IA

Diario Tecnología