¿Cuánta agua gastas con una única consulta en ChatGPT?

En un mundo cada vez más digitalizado, donde la inteligencia artificial (IA) se integra en innumerables aspectos de nuestra vida diaria, es fácil caer en la ilusión de que estas tecnologías operan en un ámbito puramente etéreo, desvinculado de los recursos físicos de nuestro planeta. Sin embargo, bajo la superficie de cada interacción, de cada búsqueda y, sí, de cada consulta a un modelo de lenguaje como ChatGPT, existe una intrincada red de infraestructura física que demanda energía y, sorprendentemente para muchos, también una cantidad considerable de agua. La pregunta, entonces, de cuánta agua se "gasta" con una simple consulta a ChatGPT no es solo una curiosidad, sino una invitación a reflexionar sobre el impacto ambiental oculto de nuestra dependencia tecnológica. Este artículo explora la huella hídrica de la IA, desglosando los procesos y factores que contribuyen a este consumo y ofreciendo una perspectiva sobre cómo podemos abordar este desafío creciente.

El rastro hídrico invisible de la inteligencia artificial

Stylish woman with a horse wearing a denim outfit and cowboy hat outdoors.

Cuando pensamos en el consumo de agua, nuestra mente suele evocar imágenes de agricultura, industrias pesadas o incluso nuestro uso doméstico. Rara vez, si es que alguna vez lo hacemos, conectamos el acto de escribir una pregunta en un chatbot con el agotamiento de un recurso tan vital. No obstante, la inteligencia artificial, especialmente los grandes modelos de lenguaje (LLM) como los que impulsan ChatGPT, no son entidades inmateriales. Residen en centros de datos masivos, equipados con miles de servidores que trabajan incansablemente para procesar información. Estos centros son verdaderas ciudades tecnológicas, que requieren no solo una inmensa cantidad de electricidad para funcionar, sino también sistemas de refrigeración sofisticados para evitar el sobrecalentamiento de sus componentes. Y es precisamente en esta refrigeración donde el agua entra en juego de manera significativa.

La huella hídrica de una tecnología se refiere a la cantidad total de agua dulce utilizada para producir bienes o servicios. En el caso de la IA, esta huella es compleja y multifacética, abarcando desde el agua necesaria para generar la electricidad que alimenta los centros de datos, hasta el agua directamente empleada en sus sistemas de refrigeración. Es un rastro invisible porque no vemos el agua correr cuando interactuamos con ChatGPT, pero su uso es una constante fundamental para el funcionamiento de todo el ecosistema digital. Ignorar esta realidad sería subestimar el costo ambiental que acarrea nuestra era de la información.

¿De dónde viene el agua?: El ciclo de vida de una consulta en ChatGPT

Para entender el consumo de agua de una consulta, debemos analizar las diferentes etapas por las que pasa la IA.

El entrenamiento del modelo: la fase más sedienta

Antes de que un modelo como ChatGPT pueda responder a cualquier pregunta, debe ser "entrenado". Este proceso implica alimentarlo con cantidades colosales de datos de texto y código, lo que puede llevar meses e incluso años, utilizando miles de unidades de procesamiento gráfico (GPU) funcionando en paralelo. Este entrenamiento es, con mucho, la fase más intensiva en términos de recursos. Se ha estimado que el entrenamiento de modelos de lenguaje grandes puede consumir cientos de miles, o incluso millones, de litros de agua. Por ejemplo, estudios sugieren que el entrenamiento del GPT-3 de OpenAI, un predecesor de los modelos que impulsan ChatGPT, pudo haber utilizado el equivalente a un reactor nuclear de agua, o el agua necesaria para llenar cientos de piscinas olímpicas, principalmente para refrigerar los servidores.

Los centros de datos que albergan estas operaciones utilizan sistemas de enfriamiento evaporativo, que son eficientes en la disipación de calor pero requieren una gran cantidad de agua. El agua se evapora para enfriar el aire que, a su vez, enfría los servidores. Cuanto más grande y potente es el modelo, más extenso y prolongado es su entrenamiento, y mayor es la demanda de recursos, incluyendo el agua. La energía utilizada para este proceso también tiene una huella hídrica asociada; si la electricidad proviene de centrales termoeléctricas o nucleares, estas requieren agua para sus propios sistemas de enfriamiento. Es un ciclo interconectado donde cada componente añade a la demanda total de agua.

La inferencia y el consumo operativo

Una vez que un modelo ha sido entrenado, entra en la fase de "inferencia", que es cuando los usuarios interactúan con él, haciendo preguntas y recibiendo respuestas. Aunque una sola consulta es un evento de corta duración y bajo consumo en comparación con el entrenamiento, la escala global de usuarios y la frecuencia de las interacciones hacen que la inferencia también contribuya significativamente a la huella hídrica acumulada. Cada vez que usted escribe una pregunta en ChatGPT, se activan servidores para procesar su solicitud, generar una respuesta y enviársela. Estos servidores, aunque en menor medida que durante el entrenamiento, también generan calor y necesitan ser refrigerados.

Investigadores de la Universidad de California, Riverside (UCR), como Shaolei Ren, han realizado estimaciones concretas. Sus estudios sugieren que una conversación de 20 a 50 preguntas y respuestas con ChatGPT puede "gastar" aproximadamente medio litro de agua. Esto incluye tanto el agua directa para la refrigeración como el agua indirecta utilizada para generar la electricidad. En mi opinión, este dato es particularmente revelador porque nos conecta directamente con una acción cotidiana que antes considerábamos inmaterial. Multipliquemos ese medio litro por los millones de usuarios y miles de millones de interacciones diarias, y la cifra se vuelve asombrosa. Compañías como Microsoft, socio de OpenAI, han reconocido la importancia de estos cálculos y están trabajando para mejorar la eficiencia hídrica de sus operaciones. Los informes de sostenibilidad de Microsoft, por ejemplo, detallan sus esfuerzos y desafíos en esta área, destacando la necesidad de una gestión responsable del agua.

Estimaciones y desafíos de medición

La cuantificación exacta de la huella hídrica de una única consulta es notoriamente compleja y variable. No existe un número universal y fijo, debido a una multitud de factores interconectados.

En primer lugar, los centros de datos varían enormemente en su eficiencia. Algunos utilizan sistemas de refrigeración más avanzados y eficientes en el uso del agua, mientras que otros pueden depender de tecnologías más antiguas. La ubicación geográfica también es crucial: un centro de datos en un clima frío, donde la refrigeración natural por aire es más viable, consumirá menos agua que uno situado en una región cálida y árida que depende en gran medida de la refrigeración evaporativa. Además, la fuente de energía que alimenta el centro de datos juega un papel fundamental. Las centrales hidroeléctricas o solares fotovoltaicas tienen una huella hídrica significativamente menor por unidad de energía generada que las centrales termoeléctricas (carbón, gas, nucleares), que requieren grandes volúmenes de agua para sus torres de enfriamiento. Según el Servicio Geológico de Estados Unidos (USGS), la generación de energía es, de hecho, uno de los mayores consumidores de agua dulce en muchos países.

En segundo lugar, la complejidad de la consulta en sí misma puede influir. Una pregunta sencilla que requiere una respuesta directa podría consumir menos recursos computacionales que una consulta compleja que involucra múltiples pasos de razonamiento o la generación de texto extenso y detallado. La propia arquitectura del modelo de lenguaje, su tamaño y su optimización para la eficiencia energética también son factores determinantes. Los modelos más grandes y menos optimizados consumirán más energía y, por ende, más agua.

Por último, la transparencia de los datos es un desafío. Las grandes empresas tecnológicas, aunque cada vez más conscientes de la sostenibilidad, a menudo consideran su infraestructura operativa y sus métricas de consumo como información propietaria. Esto dificulta que investigadores externos realicen evaluaciones exhaustivas y precisas. No obstante, informes como el de Shaolei Ren y otros investigadores están empujando a la industria hacia una mayor apertura y responsabilidad. En mi opinión, es crucial que las empresas compartan más datos sobre su consumo de agua y energía, no solo para la investigación, sino para fomentar la innovación y la rendición de cuentas.

Factores que influyen en el consumo de agua

Profundicemos en los elementos clave que dictan la variabilidad en el consumo de agua asociado a la IA.

Ubicación geográfica del centro de datos

Como se mencionó, el entorno climático de un centro de datos es un factor principal. Regiones con temperaturas ambientales más bajas permiten un mayor uso de la refrigeración por aire exterior ("free cooling"), reduciendo la necesidad de sistemas de refrigeración que utilizan agua. Por el contrario, los centros de datos en climas cálidos o húmedos suelen depender más de sistemas de enfriamiento evaporativo o de torres de enfriamiento que, aunque eficientes, consumen grandes volúmenes de agua. La disponibilidad de agua dulce en la región también es una consideración crítica. Las empresas están comenzando a evaluar la escasez de agua local al decidir la ubicación de nuevos centros de datos, buscando regiones con abundancia de agua o implementando tecnologías que reciclen el agua de manera más efectiva. Este es un paso importante hacia una gestión hídrica más consciente.

Eficiencia de los sistemas de refrigeración

La tecnología de refrigeración empleada dentro del centro de datos es otro diferenciador clave. Algunos centros utilizan sistemas de enfriamiento por inmersión líquida, donde los servidores están sumergidos en un fluido dieléctrico no conductor. Estos sistemas pueden ser significativamente más eficientes en la disipación de calor que la refrigeración por aire tradicional y pueden reducir el consumo directo de agua. Otros están invirtiendo en sistemas de circuito cerrado que reciclan el agua con una mínima pérdida por evaporación. La innovación en este campo es rápida, impulsada por la creciente conciencia ambiental y la necesidad económica de reducir los costos operativos. No obstante, la inversión inicial en estas tecnologías puede ser alta, lo que a veces retrasa su adopción masiva.

El mix energético que alimenta la infraestructura

La huella hídrica indirecta de la IA, derivada de la generación de electricidad, varía drásticamente según la fuente de energía. Las centrales eléctricas que queman combustibles fósiles (carbón, gas natural) o las nucleares son intensivas en agua, ya que utilizan grandes volúmenes para sus sistemas de condensación y enfriamiento. Por otro lado, la energía solar fotovoltaica o la eólica tienen una huella hídrica mucho menor. Las empresas tecnológicas están invirtiendo fuertemente en energía renovable, tanto para reducir sus emisiones de carbono como para disminuir su dependencia del agua. Por ejemplo, compañías como Google y Microsoft se han comprometido a operar con un 100% de energía renovable, yendo incluso más allá, como Google con su objetivo de operar con energía libre de carbono 24/7. Puedes ver más sobre sus esfuerzos en sus respectivos informes de sostenibilidad de Google. Estos esfuerzos no solo benefician el clima, sino que también contribuyen a una reducción significativa de la huella hídrica indirecta.

El dilema ético y la sostenibilidad

La creciente huella hídrica de la IA plantea un dilema ético importante. A medida que la IA se vuelve más poderosa y ubicua, también lo hace su demanda de recursos naturales. ¿Estamos dispuestos a aceptar este costo ambiental en aras del progreso tecnológico? ¿O tenemos la responsabilidad de encontrar un equilibrio?

Las grandes corporaciones tecnológicas, que son las principales impulsoras y beneficiarias del desarrollo de la IA, tienen una obligación moral de abordar este impacto. Empresas como Microsoft han establecido metas ambiciosas para ser "positivas en agua" para 2030, lo que significa reponer más agua de la que consumen. Puedes explorar sus compromisos en su Informe de Sostenibilidad de Microsoft. Esto implica invertir en proyectos de restauración de cuencas hídricas, apoyar la conservación del agua en las comunidades locales y mejorar la eficiencia de sus propias operaciones. Aunque estas metas son loables, el camino hacia ellas es largo y está lleno de desafíos técnicos y logísticos.

Desde mi punto de vista, la transparencia es fundamental. Los usuarios, los reguladores y la sociedad en general deben ser conscientes de los costos ocultos de la tecnología que utilizamos. Solo a través de esta conciencia podemos presionar por una mayor responsabilidad y fomentar la innovación hacia soluciones más sostenibles. El desarrollo de la IA no puede darse en un vacío ambiental; debe integrarse en un marco más amplio de sostenibilidad y gestión responsable de los recursos.

¿Qué podemos hacer como usuarios?

Aunque la mayor parte de la responsabilidad recae en las empresas tecnológicas y los desarrolladores de IA, los usuarios también tenemos un papel, aunque pequeño, en la mitigación de este impacto.

En primer lugar, la conciencia es el punto de partida. Saber que cada consulta tiene un costo ambiental nos invita a ser más intencionales con nuestro uso. ¿Necesito realmente hacer esta pregunta a ChatGPT, o puedo encontrar la información a través de una búsqueda web más tradicional, que podría tener una huella ligeramente diferente pero potencialmente menor en algunos contextos? No se trata de abstenerse completamente de usar estas herramientas, sino de utilizarlas de manera reflexiva.

En segundo lugar, podemos apoyar la transparencia y la rendición de cuentas. Alentemos a las empresas a publicar informes detallados sobre su consumo de agua y energía, y a establecer metas claras y medibles de sostenibilidad. Nuestra voz como consumidores tiene un impacto. La demanda de productos y servicios más ecológicos puede impulsar a las empresas a acelerar sus esfuerzos.

Finalmente, podemos promover la investigación y el desarrollo de IA más eficiente. Esto incluye apoyar a investigadores que trabajan en algoritmos más ligeros y en arquitecturas de modelos que requieran menos recursos computacionales. La eficiencia no solo beneficia al medio ambiente, sino que también puede democratizar el acceso a la IA al reducir los costos operativos. Al informarnos sobre las innovaciones en este campo, podemos contribuir al diálogo y al avance de soluciones sostenibles.

Hacia un futuro más hídrico-consciente en la IA

El futuro de la inteligencia artificial debe ser un futuro en el que la sostenibilidad sea un pilar fundamental, no una consideración secundaria. Para ello, se requieren esfuerzos concertados en varias áreas.

Una de las más prometedoras es la innovación en tecnologías de refrigeración. Como se ha mencionado, los sistemas de enfriamiento por inmersión o de circuito cerrado son vitales para reducir el consumo directo de agua en los centros de datos. La investigación en materiales y fluidos más eficientes, así como en diseños de centros de datos que aprovechen mejor las condiciones ambientales, es crucial. También es esencial explorar el uso de agua no potable, como el agua gris o el agua de mar desalinizada (siempre que los procesos de desalación sean sostenibles), para la refrigeración, reduciendo así la presión sobre los recursos de agua dulce.

Otra área clave es la optimización de los modelos de IA. Esto incluye desarrollar algoritmos que sean inherentemente más eficientes en términos de energía y cómputo. La "IA verde" o "IA eficiente" se centra en la creación de modelos más pequeños, que requieran menos entrenamiento y menos recursos para la inferencia, sin sacrificar significativamente el rendimiento. Esto podría implicar el uso de técnicas como la poda de modelos, la cuantificación o el destilado de conocimiento. Cada bit de eficiencia computacional se traduce en una reducción en el consumo de energía y, por ende, de agua.

Finalmente, las políticas y regulaciones tienen un papel indispensable. Los gobiernos pueden ofrecer incentivos para que las empresas adopten tecnologías más sostenibles, o establecer requisitos mínimos de eficiencia para los centros de datos. La planificación urbana también puede considerar la ubicación de los centros de datos en regiones con un suministro de energía limpia y abundante, y con un clima que favorezca la refrigeración natural. La colaboración entre la industria, la academia y los gobiernos es fundamental para construir un ecosistema de IA que sea poderoso, beneficioso y, al mismo tiempo, respetuoso con nuestro planeta. El crecimiento de la IA no puede ser a costa de la escasez de recursos esenciales como el agua.

Conclusión

La próxima vez que interactúe con ChatGPT o cualquier otra forma de inteligencia artificial, considere que, detrás de la inmediatez y la conveniencia de la respuesta, existe una compleja cadena de procesos que demandan recursos tangibles, incluyendo una cantidad no despreciable de agua. Desde el monumental entrenamiento del modelo hasta la ejecución diaria de cada consulta, el agua es un componente silencioso pero esencial. Si bien el impacto de una única consulta puede parecer insignificante, la acumulación de miles de millones de interacciones diarias convierte esta huella hídrica invisible en un desafío ambiental considerable. Es un recordatorio de que la tecnología, por muy avanzada que sea, sigue arraigada en el mundo físico y depende de sus recursos. Al ser conscientes de estos costos ocultos, al exigir transparencia a las empresas tecnológicas y al apoyar la innovación en sostenibilidad, podemos contribuir a construir un futuro donde la inteligencia artificial no solo sea inteligente, sino también intrínsecamente responsable con nuestro valioso recurso hídrico.

IA y medio ambiente Huella hídrica de la IA Sostenibilidad tecnológica Centros de datos y agua

Diario Tecnología