El desarrollo de la Inteligencia Artificial (IA) que impacta el ámbito económico tiene un enorme potencial para transformar la vida diaria en este siglo XXI. No obstante, resulta crucial que la sociedad pueda examinar los desafíos y riesgos que plantea, considerando el enorme costo ambiental que involucra su desarrollo. Necesita aumentar la extracción de minerales, consumir enormes volúmenes de agua para las torres de enfriamiento, usar relevantes cantidades de energía para su funcionamiento, todos ellos son factores muy importantes porque aumentan el calentamiento global y la huella de carbono. Este artículo de Juan Lopéz Páez explica detalladamente todos los aspectos que serán afectados, esto permite que el lector pueda discernir si finalmente será beneficioso para toda la humanidad, especialmente teniendo en cuenta que se está pensando en desarrollar los centros de datos en Latinoamérica, África, Medio Oriente y el Caribe.
Por: Juan López Páez
Medio ambiente
La mayor parte del daño ambiental potencial causado por la IA se origina en las cadenas de suministro necesarias para hacerla posible: desde la extracción de minerales para los microchips requeridos, la construcción de centros de datos para las mayores necesidades de procesamiento de datos, el agua que alimenta a las torres de enfriamiento que disipan las elevadas temperaturas generadas por los servidores, los requerimientos relevantes de energía, todos ellos son factores muy importantes para la implantación de la IA porque afectan a dimensiones sensibles como el calentamiento global y la huella de carbono.
Según un informe de PitchBook, para 2025, el 3,2 % de todas las emisiones de carbono del mundo provendrán de granjas de servidores de IA y «su costo ambiental no hace más que crecer a medida que la industria crece de una manera que prioriza la expansión en lugar de la eficiencia». En septiembre 2024 el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA) publicó una nota técnica que explora la huella ambiental de la IA: “Artificial intelligence (AI) end-to-end” considerando cómo se puede implementar la tecnología de manera sostenible.
La huella hídrica de la IA
La IA podría alcanzar los 6.600 millones de m³ de consumo de agua para 2027, lo que es más que la extracción anual total de agua de Dinamarca o la mitad del Reino Unido. Ello porque la refrigeración de los centros de datos utilizan torres de refrigeración y mecanismos de aire para disipar el calor, lo que provoca que se evaporen hasta 9 litros de agua por cada kWh de energía utilizada. Por ejemplo, el entrenamiento del modelo de lenguaje GPT-3 en los centros de datos de última generación de Microsoft en EEUU puede evaporar directamente 700.000 litros de agua dulce limpia.
Un estudio realizado por investigadores de la Universidad de California, Riverside, y la Universidad de Texas en Arlington, hallaron que, generar un texto de 100 palabras en ChatGPT consume, en promedio, 519 mililitros de agua. Casi medio litro de agua por una consulta puede parecer poco si lo analizamos de manera aislada. Si tan sólo el 10% de la población activa estadounidense utilizara este servicio semanalmente, el consumo anual de agua alcanzaría más de 435 millones de litros, cantidad suficiente para satisfacer las necesidades para consumo como para la higiene personal de 4,35 millones de personas, de acuerdo con las recomendaciones de la OMS.
Los centros de datos de IA generan una cantidad considerable de calor, por lo que es necesario utilizar refrigeración líquida para garantizar un rendimiento, una sostenibilidad y una fiabilidad óptimos. A diferencia de las unidades de procesamiento central (CPU) clásicas, las unidades de procesamiento de gráficos (GPU) tienen mejor desempeño, pero consumen hasta diez veces más de energía. En este aspecto, los grandes modelos de lenguaje necesitan de miles de GPU que funcionan las 24 horas durante días, semanas o meses. Además de la refrigeración a través de energía, los centros de datos utilizan agua para que sus equipos no excedan la temperatura adecuada y no se rompan. De esta manera, Microsoft informó que empleó casi 13 mil millones de litros durante 2023, de las cuales 8 mil se evaporaron o consumieron y no pudieron reutilizarse. Por su parte, Google usó alrededor de 8.600 millones de litros, pero solo volvió a utilizar cerca del 25%
Las dimensiones de los microchips que forman los circuitos integrados que procesan la información también tiene un trasfondo energético. Un menor tamaño del dispositivo reduce su capacidad eléctrica, por lo que la carga que es necesario inyectar o extraer datos del dispositivo cada vez que conmuta su valor lógico es más pequeña. La reducción de la carga que debe moverse conlleva una reducción de las corrientes que deben circular por los conductores de los circuitos integrados y, por tanto, una reducción de las pérdidas de energía que se traducen en calor. En definitiva, una tecnología de menor tamaño permitirá hacer las mismas operaciones con un menor consumo de energía o, equivalentemente, realizar más operaciones ante la misma disipación de calor, ser más eficientes.
Una consulta ChatGPT consume diez veces más energía que una consulta estándar de Google, señala David Porter, vicepresidente del Electric Power Research Institute. Porter señala que actualmente sólo entre el 10% y el 20% de la energía de los centros de datos de EEUU la consume la IA, pero esa proporción «aumentará significativamente» en el futuro.
El chatbot GPT-4 requiere más de 50 gigavatios-hora para entrenar, lo que supone aproximadamente el 0,02% de la electricidad que California produce anualmente y 50 veces más de lo que se necesitó para entrenar a GPT-3, el chatbot de la generación anterior.
Palabras que consumen energía. Del mismo modo, los investigadores calcularon el consumo de cada respuesta de 100 palabras: en promedio son 0.14 kilovatios-hora (kWh), energía suficiente para alimentar 6 lámparas LED de 5 W durante una hora. Multiplicado por millones de usuarios, el impacto es sorprendente: si tan sólo el 10 por ciento de los estadounidenses utilizara esta tecnología semanalmente, la factura anual de electricidad equivaldría al consumo energético de todos los hogares de Washington D.C. (600.000 habitantes), durante 20 días.
En un estudio de 2023, Luccioni et al. calcularon que el despliegue de un modelo BLOOM de 176.000 millones de parámetros durante 18 días consumía una media de 40,32 kWh de energía al día (aproximadamente el equivalente a 1.110 cargas de smartphone) y emitía unos 19 kg de CO₂ equivalente al día.
Un estudio de la Universidad de Massachusetts Amherst estimó que entrenar un modelo de lenguaje grande como GPT-3 genera la misma cantidad de dióxido de carbono que 125 vuelos de ida y vuelta entre Nueva York y Beijing. Según un informe de Schneider Electric, actualmente la IA requiere 4,3 GW de energía para los centros de datos, y se prevé que alcance los 18 GW en 2028. Se espera que las cargas de trabajo de IA crezcan dos o tres veces más rápido que las cargas de trabajo de los centros de datos tradicionales, lo que representará entre el 15 y el 20 % de toda la capacidad de los centros de datos para 2028.
Minerales
La mayoría de las implementaciones de IA a gran escala se alojan en centros de datos, incluidos los operados por proveedores de servicios en la nube. Los productos electrónicos que albergan dependen de una cantidad asombrosa de molienda (proceso de pulverización): fabricar una computadora de 2 kg requiere 800 kg de materias primas. Además, los microchips que alimentan la IA necesitan elementos de tierras raras, que a menudo se extraen de formas destructivas para el medio ambiente, tal como se indica en el informe Navigating New Horizons de julio 2024.
La IA depende de los minerales críticos, las “tierras raras”, factores clave para la computación cuántica y la inteligencia artificial. Se trata de un conjunto de 17 elementos esenciales: Escandio (Sc); Itrio (Y); Lantano (La); Cerio (Ce); Praseodimio (Pr); Neodimio (Nd); Promecio (Pm); Samario (Sm); Europio (Eu); Gadolinio (Gd); Terbio (Tb); Disprosio (Dy); Holmio (Ho); Erbio (Er); Tulio (Tm); Iterbio (Yb) y Lutecio (Lu).
El impacto de la IA en la salud pública, un costo impago. Si bien se ha prestado mucha atención a la creciente huella ambiental de la IA, la carga para la salud pública, un costo oculto de la IA, se ha pasado por alto en gran medida. En concreto, el ciclo de vida de la IA, desde la fabricación de chips hasta el funcionamiento del centro de datos, degrada significativamente la calidad del aire a través de las emisiones de contaminantes atmosféricos, como las partículas finas, lo que afecta sustancialmente a la salud pública. El documento presenta una metodología para modelar las emisiones de contaminantes a lo largo del ciclo de vida de la IA, cuantificando los impactos en la salud pública. Revela que el entrenamiento de un modelo de IA de la escala Llama3.1 puede producir contaminantes atmosféricos equivalentes a más de 10.000 viajes de ida y vuelta en coche entre Los Ángeles y la ciudad de Nueva York. La carga total para la salud pública de los centros de datos de EEUU en 2030 se estima en más de 20.000 millones de dólares al año, el doble de la fabricación de acero a base de carbón de EEUU y comparable a la de las emisiones en carretera de California.
Transición verde
La EIA (Administración de Información Energética), agencia del gobierno estadounidense parte de la inviolabilidad del rumbo hacia una transición energética verde y el desarrollo prioritario de las fuentes de energía renovables, pues bien la mayor empresa inversora estadounidense, Pickering Energy Partners, publicó un informe “The U.S. needs a bigger (Energy) Boat. Putting the sheer magnitude of forecasted energy demand into perspective” en el que se afirma que el desarrollo de la IA, vital para EEUU no se puede lograr en el marco de la energía verde:
“Nuestra investigación sugiere que, de manera conservadora, la IA podría duplicar el consumo actual de electricidad en Estados Unidos a aproximadamente 8,4 billones de kilovatios-hora. Si no se prepara y gestiona eficazmente, este aumento de la demanda podría abrumar nuestros recursos energéticos internos, lo que podría provocar escasez de energía, aumento de costos en todo EEUU, mayor inestabilidad geopolítica en todo el mundo y, en última instancia, la incapacidad de EEUU para liderar el proceso de la evolución de la inteligencia artificial”.
Los centros de datos y el crecimiento del consumo energético
Los centros de datos que alimentan los sistemas de IA están en medio de la discusión. En 2023, estos centros de datos que alimentan los sistemas representaron aproximadamente el 4% del consumo eléctrico de EEUU, y se proyecta que, para 2030, esta cifra aumente al 10%. Comparando las búsquedas tradicionales con consultas a modelos grandes de lenguaje como ChatGPT, un representante de Alphabet estimaba un coste diez veces superior con un consumo de hasta 3 Wh. Si cada búsqueda pasase a ser una consulta, la electricidad necesaria para dar las respuestas ascendería a 29,3 TWh al año, equivalente al consumo de un país como Irlanda.
Requieren un suministro de energía continuo y estable para funcionar. Actualmente, los centros de datos representan más del 1% del consumo mundial de electricidad, según la EIA. En la era del 5G y el almacenamiento en la nube, los centros de datos se han convertido en engranajes de infraestructura críticos, que respaldan todo, desde transacciones financieras hasta redes sociales y operaciones gubernamentales. Los centros de datos requieren un suministro de energía continuo y estable para funcionar.
Grandes empresas tecnológicas trataron de contrarrestar este impacto mediante inversiones en energías renovables y la reactivación de plantas nucleares. Sin embargo, en paralelo, las empresas eléctricas recurrieron a combustibles fósiles como el gas natural para abastecer la creciente demanda, lo que podría perpetuar un modelo de alto carbono en el sector energético. En EEUU se plantean la construcción de los centros de datos en las proximidades de centrales energéticas ya existentes para reducir la carga sobre la red de distribución general que supone un centro de consumo tan intenso, mediante la construcción de conexiones dedicadas entre el centro de datos y la central. Se reducen así las pérdidas de energía debidas a su transporte a larga distancia, y se consigue también un incremento de la fiabilidad de la fuente de energía al utilizar infraestructuras dedicadas con las que se eliminan riesgos como la demanda variable y, por su menor complejidad, los asociados al mantenimiento.
Al igual que ocurrió con la máquina de vapor, la electricidad o el propio Internet, la IA debe ser considerada como una tecnología de objetivo general (GPT), esto es, de uso social amplio; capaz de implementar una dinámica incesante de mejoría técnica; y que permite la innovación en otros sectores. Debido a estas características de GPT, la Inteligencia Artificial es una tecnología que causa disrupción económica en la sociedad.
Desde el lanzamiento de ChatGPT a finales de 2022, la industria de la IA ha crecido exponencialmente. Según Statista, el mercado de la inteligencia artificial creció más allá de los 184.000 millones de dólares en 2024 y se espera que continúe con la carrera del mercado más allá de los 826.000 millones de dólares en 2030.
La IA rediseña la economía, las revoluciones tecnológicas como reconfiguraciones del capital fijo por el capitalismo han servido para mejorar la productividad, los algoritmos de recomendación pueden fomentar un mayor consumo, el comportamiento de los consumidores podrían aumentar las emisiones de carbono, el 45% de las ganancias económicas totales para 2030 provendrán de mejoras en los productos, lo que estimulará la demanda de los consumidores. Esto se debe a que la IA impulsará una mayor variedad de productos, con una mayor personalización, atractivo y asequibilidad a lo largo del tiempo, impulsando la producción y la logística, lo que a su vez genera más emisiones. De igual manera, los vehículos autónomos, en lugar de permanecer estacionados, podrían circular sin descanso, aumentando el tráfico y el consumo de energía.
En contrapartida la IA puede mejorar la eficiencia de las redes eléctricas, identificar la mejor localización para instalación de parques solares y eólicos, o mapear el dragado destructivo de arena y monitorear las emisiones de metano, un potente gas de efecto invernadero, o en la agricultura de precisión, optimizando cultivos y reduciendo el uso de fertilizantes contaminantes.
El costo del cálculo
Para calcular el costo de la potencia computacional requerida para entrenar un modelo de IA determinado, los investigadores de Epoch AI tomaron datos históricos sobre el costo de compra de los chips semiconductores especializados necesarios y luego depreciaron esta cifra durante el tiempo que los chips debían funcionar para entrenar el modelo de IA.
Los investigadores descubrieron que el costo de la potencia computacional necesaria para entrenar los modelos se duplica cada nueve meses. Se trata de un ritmo de crecimiento prodigioso: a este ritmo, el costo del hardware y la electricidad necesarios solo para construir sistemas de IA de vanguardia ascendería a miles de millones a finales de esta década, sin tener en cuenta otros costos como la remuneración de los empleados.
En un estudio de dos investigadores de la Universidad de Stanford y tres investigadores de Epoch AI (instituto de investigación que se centra en predecir cómo se desarrollará la IA), publicaron el análisis más exhaustivo hasta el momento sobre cómo ha evolucionado con el tiempo el coste de entrenar a los sistemas de IA más capaces y qué está impulsando los crecientes costes de la carrera armamentista de la IA entre las empresas tecnológicas. Sus resultados sugieren que los costes de entrenar a los sistemas de IA más avanzados han ido aumentando durante años como resultado de la creciente cantidad de potencia computacional que se utiliza para entrenar esos sistemas, y que la remuneración de los empleados también contribuye de forma significativa al coste de la IA.
Las empresas tecnológicas que han invertido miles de millones de dólares en IA, y han estimulado una intensa carrera en Silicon Valley han cambiado por completo sus estrategias corporativas para hacerse con el control de lo que creen que se convertirá en una nueva capa de infraestructura de la economía. Los analistas de PwC predicen que la IA podría impulsar la economía mundial en más de 15 billones de dólares para 2030. Las mayores ganancias económicas derivadas de la IA se obtendrán en China (un aumento del 26 % del PIB en 2030) y América del Norte (un aumento del 14,5 %), lo que equivale a un total de 10,7 billones de dólares y representa casi el 70 % del impacto económico mundial.
Juan López Páez : Madrileño. Biólogo, miembro del CEFMA (Centro de Estudios y Formación Marxista) e integrante del Comité de RRII del PC argentino. Colaborador de la Revista “Cuadernos Marxistas” en temas de ecología y marxismo, geopolítica y relaciones económicas China – UE.