Copiado de la web del SEDIC (Sociedad Española de Documentación e Información científica):
El impacto ambiental de la IA generativa
El entrenamiento y la implementación de modelos de IA generativa requieren una potencia computacional extraordinaria debido a la complejidad de los modelos, que a menudo contienen miles de millones de parámetros. Este proceso implica un consumo masivo de electricidad, generando emisiones de dióxido de carbono (CO₂) y ejerciendo presión sobre las redes eléctricas. Incluso después de entrenados, estos modelos continúan demandando grandes cantidades de energía para su uso y ajuste, intensificando su huella ambiental.
Además de la electricidad, el enfriamiento de los equipos de hardware empleados en estos procesos consume cantidades significativas de agua, afectando los suministros municipales y los ecosistemas locales. La creciente demanda de hardware de alto rendimiento, necesario para estas tecnologías, también agrava el impacto ambiental debido a los procesos de fabricación y transporte involucrados.
Los centros de datos, esenciales para entrenar y ejecutar modelos de aprendizaje profundo como ChatGPT o DALL-E, son una de las principales fuentes de consumo energético en el ámbito de la IA generativa. Estos centros, que albergan miles de servidores y equipos de red, operan en condiciones de temperatura controlada para mantener el funcionamiento óptimo de sus componentes.
Según datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE), el consumo global de electricidad de los centros de datos alcanzó 460 teravatios en 2022, lo que los posicionaría como el undécimo mayor consumidor de electricidad en el mundo, superando a países como Arabia Saudita. Este consumo podría duplicarse para 2026, lo que situaría a los centros de datos entre los cinco mayores consumidores globales de electricidad, un hecho impulsado en gran parte por la IA generativa.
El entrenamiento de un modelo como GPT-3, por ejemplo, consume aproximadamente 1,287 megavatios-hora de electricidad, equivalente a la energía utilizada por 120 hogares promedio en Estados Unidos durante un año. Este proceso también genera unas 552 toneladas de CO₂. Además, las fluctuaciones rápidas en el consumo de energía durante las distintas fases del entrenamiento añaden complejidad, ya que las redes eléctricas deben estar preparadas para absorber estas variaciones mediante generadores diésel, lo que incrementa la dependencia de combustibles fósiles.
Una vez que los modelos de IA generativa están entrenados, su uso cotidiano, conocido como "inferencia", sigue requiriendo una cantidad considerable de energía. Por ejemplo, cada consulta a ChatGPT consume aproximadamente cinco veces más electricidad que una búsqueda web estándar. Este consumo energético es resultado de la complejidad de las operaciones computacionales necesarias para responder a las preguntas de los usuarios.
A medida que la IA generativa se integra en más aplicaciones, se espera que las demandas energéticas de la inferencia superen a las del entrenamiento. Esto se agrava por la corta vida útil de los modelos, ya que las empresas lanzan nuevas versiones cada pocas semanas, lo que implica que la energía utilizada en modelos antiguos se desaprovecha.
El enfriamiento de los centros de datos, un proceso crítico para evitar el sobrecalentamiento del hardware, requiere grandes volúmenes de agua. Se estima que por cada kilovatio-hora de electricidad consumido, un centro de datos necesita dos litros de agua para enfriamiento. Este uso intensivo de agua tiene implicaciones directas en la biodiversidad local y puede contribuir al estrés hídrico en comunidades cercanas.
La fabricación de hardware especializado, como unidades de procesamiento gráfico (GPU) necesarias para manejar cargas de trabajo intensivas de IA generativa, tiene impactos ambientales indirectos. La complejidad del proceso de fabricación de GPUs implica un mayor consumo energético en comparación con procesadores más simples (CPU). Además, la extracción de materias primas para fabricar estos componentes a menudo implica prácticas mineras contaminantes y el uso de productos químicos tóxicos.
En 2023, los principales fabricantes de GPUs, como NVIDIA, AMD e Intel, enviaron 3.85 millones de unidades a centros de datos, un aumento significativo respecto a años anteriores. Este crecimiento exponencial refuerza el carácter insostenible de la industria si no se implementan medidas correctivas.
EN RESUMEN (que es un tochaco y entiendo que no mucha gente quiera leerlo): Mantener los servidores, entrenar las IAs generativas y usarlas es contaminante porque se usan muchos recursos, muchisima agua y electricidad