La IA tiene un temible costo ambiental, ChatGPT consume 1 litro de agua por cada 100 preguntas

Esto te sonará increíble, pero es verídico: una conversación con ChatGPT, de aproximadamente entre 20 y 50 preguntas y respuestas, consume el equivalente a medio litro de agua (500 ml); o sea, lo que viene a ser una botella pequeña. Ahora imaginate eso a escala real... claro, se traduciría en un número altísimo de recursos hídricos. Para que puedas tener una idea te vamos a explicar cómo funciona y por qué la IA generativa produce un grave impacto en el ambiente.

En primer lugar, sabemos que la huella de carbono es una medida que evalúa el impacto ambiental de una actividad en términos de emisiones de gases de efecto invernadero, especialmente dióxido de carbono (CO2). En este caso, se relaciona directamente con el consumo eléctrico que requiere la gestión de datos masivos ―como el entrenamiento de los modelos de lenguaje de la IA― y la refrigeración que los centros de datos necesitan para no sobrecalentarse.

¿Cómo creés que enfrían estos centros? Así es, con enormes cantidades de agua. Verás, solo durante 2023, los centros de datos de Google utilizaron casi 20.000 millones de litros de agua, lo que representa más o menos cerca de un 10% del consumo de agua que tiene, por año, un país del tamaño de España. Y recordemos que esto sucede en un contexto de crisis mundial de agua dulce potable, que no basta para cubrir las necesidades básicas de todos los habitantes. O cuanto menos, tiene que ver con la distribución desigual de recursos.

Un trabajador de Google se encarga de la infraestructura en el centro de datos del condado de Mayes, Oklahoma.

¿Pero a quién le importa, verdad? Bueno, definitivamente no a OpenAI, que si bien andan flojos en cuanto a la transparencia de información de sus procesos, hay un estudio llevado adelante por investigadores de la Universidad de California, Riverside, y la Universidad de Texas en Arlington (EE.UU.) que calculó que entrenar a GPT-3 requirió cerca de 700.000 litros de agua potable. El trabajo se titula Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models y se basó en analizar la huella hídrica que deja el entrenamiento de las IA.

Cabe aclarar que el estudio aún está a medio publicar, dado que le falta atravesar la revisión de sus pares. Aun así, ya se hizo eco en multitud de medios de comunicación y revistas científicas. Y es que, de nuevo, hay una vaga transparencia en el acceso a la información interna de estas grandes empresas. Se teme que, en realidad, las estimaciones se queden cortas. Algo que, probablemente, pueda ser certero, ya que la inteligencia artificial va ganando terreno en todas las áreas y cada vez más usuarios se suscriben a las plataformas para tener acceso a funciones más avanzadas.

Todas estas empresas (Google con Gemini, OpenAI con ChatGPT, Microsoft con Copilot, Anthropic, con Claude, X con Grok, y muchos más) podrían llegar a desarrollar métodos de refrigeración alternativos, pero actualmente es mucho más barato (al menos en términos monetarios) hacerlo con agua.

Un artículo publicado en The Guardian, nos trae un panorama bastante aterrador:

Las emisiones de los centros de datos probablemente sean un 662 % mayores de lo que afirman las grandes tecnológicas. ¿Podrán mantener el engaño? Las emisiones de los centros de datos internos de Google, Microsoft, Meta y Apple podrían ser 7,62 veces mayores que el recuento oficial.

Lo cierto es que, sin esa perspectiva, aún se espera una demanda acelerada de IA que podría, finalmente, quintuplicar para 2027 lo consumido hoy en día. Parece que, sí, la IA llegó para quedarse, pero también podría darnos más dolores de cabeza que soluciones. Por lo menos, la docencia ya va encontrando la estrategia adecuada para integrarla al sistema educativo.

Imágenes | Torres de enfriamiento de Google, The Dalles, Oregon.

Ver todos los comentarios en https://www.xataka.com.ar

VER 0 Comentario

Portada de Xataka Argentina