Sep13 nuevos y antiguos: JP, Roenlared, cristian. Celopan

Copiado de la web del SEDIC (Sociedad Española de Documentación e Información científica):


El impacto ambiental de la IA generativa

El entrenamiento y la implementación de modelos de IA generativa requieren una potencia computacional extraordinaria debido a la complejidad de los modelos, que a menudo contienen miles de millones de parámetros. Este proceso implica un consumo masivo de electricidad, generando emisiones de dióxido de carbono (CO₂) y ejerciendo presión sobre las redes eléctricas. Incluso después de entrenados, estos modelos continúan demandando grandes cantidades de energía para su uso y ajuste, intensificando su huella ambiental.
Además de la electricidad, el enfriamiento de los equipos de hardware empleados en estos procesos consume cantidades significativas de agua, afectando los suministros municipales y los ecosistemas locales. La creciente demanda de hardware de alto rendimiento, necesario para estas tecnologías, también agrava el impacto ambiental debido a los procesos de fabricación y transporte involucrados.
Los centros de datos, esenciales para entrenar y ejecutar modelos de aprendizaje profundo como ChatGPT o DALL-E, son una de las principales fuentes de consumo energético en el ámbito de la IA generativa. Estos centros, que albergan miles de servidores y equipos de red, operan en condiciones de temperatura controlada para mantener el funcionamiento óptimo de sus componentes.
Según datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE), el consumo global de electricidad de los centros de datos alcanzó 460 teravatios en 2022, lo que los posicionaría como el undécimo mayor consumidor de electricidad en el mundo, superando a países como Arabia Saudita. Este consumo podría duplicarse para 2026, lo que situaría a los centros de datos entre los cinco mayores consumidores globales de electricidad, un hecho impulsado en gran parte por la IA generativa.
El entrenamiento de un modelo como GPT-3, por ejemplo, consume aproximadamente 1,287 megavatios-hora de electricidad, equivalente a la energía utilizada por 120 hogares promedio en Estados Unidos durante un año. Este proceso también genera unas 552 toneladas de CO₂. Además, las fluctuaciones rápidas en el consumo de energía durante las distintas fases del entrenamiento añaden complejidad, ya que las redes eléctricas deben estar preparadas para absorber estas variaciones mediante generadores diésel, lo que incrementa la dependencia de combustibles fósiles.
Una vez que los modelos de IA generativa están entrenados, su uso cotidiano, conocido como "inferencia", sigue requiriendo una cantidad considerable de energía. Por ejemplo, cada consulta a ChatGPT consume aproximadamente cinco veces más electricidad que una búsqueda web estándar. Este consumo energético es resultado de la complejidad de las operaciones computacionales necesarias para responder a las preguntas de los usuarios.
A medida que la IA generativa se integra en más aplicaciones, se espera que las demandas energéticas de la inferencia superen a las del entrenamiento. Esto se agrava por la corta vida útil de los modelos, ya que las empresas lanzan nuevas versiones cada pocas semanas, lo que implica que la energía utilizada en modelos antiguos se desaprovecha.
El enfriamiento de los centros de datos, un proceso crítico para evitar el sobrecalentamiento del hardware, requiere grandes volúmenes de agua. Se estima que por cada kilovatio-hora de electricidad consumido, un centro de datos necesita dos litros de agua para enfriamiento. Este uso intensivo de agua tiene implicaciones directas en la biodiversidad local y puede contribuir al estrés hídrico en comunidades cercanas.
La fabricación de hardware especializado, como unidades de procesamiento gráfico (GPU) necesarias para manejar cargas de trabajo intensivas de IA generativa, tiene impactos ambientales indirectos. La complejidad del proceso de fabricación de GPUs implica un mayor consumo energético en comparación con procesadores más simples (CPU). Además, la extracción de materias primas para fabricar estos componentes a menudo implica prácticas mineras contaminantes y el uso de productos químicos tóxicos.
En 2023, los principales fabricantes de GPUs, como NVIDIA, AMD e Intel, enviaron 3.85 millones de unidades a centros de datos, un aumento significativo respecto a años anteriores. Este crecimiento exponencial refuerza el carácter insostenible de la industria si no se implementan medidas correctivas.


EN RESUMEN (que es un tochaco y entiendo que no mucha gente quiera leerlo): Mantener los servidores, entrenar las IAs generativas y usarlas es contaminante porque se usan muchos recursos, muchisima agua y electricidad
 
Copiado de la web del SEDIC (Sociedad Española de Documentación e Información científica):


El impacto ambiental de la IA generativa

El entrenamiento y la implementación de modelos de IA generativa requieren una potencia computacional extraordinaria debido a la complejidad de los modelos, que a menudo contienen miles de millones de parámetros. Este proceso implica un consumo masivo de electricidad, generando emisiones de dióxido de carbono (CO₂) y ejerciendo presión sobre las redes eléctricas. Incluso después de entrenados, estos modelos continúan demandando grandes cantidades de energía para su uso y ajuste, intensificando su huella ambiental.
Además de la electricidad, el enfriamiento de los equipos de hardware empleados en estos procesos consume cantidades significativas de agua, afectando los suministros municipales y los ecosistemas locales. La creciente demanda de hardware de alto rendimiento, necesario para estas tecnologías, también agrava el impacto ambiental debido a los procesos de fabricación y transporte involucrados.
Los centros de datos, esenciales para entrenar y ejecutar modelos de aprendizaje profundo como ChatGPT o DALL-E, son una de las principales fuentes de consumo energético en el ámbito de la IA generativa. Estos centros, que albergan miles de servidores y equipos de red, operan en condiciones de temperatura controlada para mantener el funcionamiento óptimo de sus componentes.
Según datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE), el consumo global de electricidad de los centros de datos alcanzó 460 teravatios en 2022, lo que los posicionaría como el undécimo mayor consumidor de electricidad en el mundo, superando a países como Arabia Saudita. Este consumo podría duplicarse para 2026, lo que situaría a los centros de datos entre los cinco mayores consumidores globales de electricidad, un hecho impulsado en gran parte por la IA generativa.
El entrenamiento de un modelo como GPT-3, por ejemplo, consume aproximadamente 1,287 megavatios-hora de electricidad, equivalente a la energía utilizada por 120 hogares promedio en Estados Unidos durante un año. Este proceso también genera unas 552 toneladas de CO₂. Además, las fluctuaciones rápidas en el consumo de energía durante las distintas fases del entrenamiento añaden complejidad, ya que las redes eléctricas deben estar preparadas para absorber estas variaciones mediante generadores diésel, lo que incrementa la dependencia de combustibles fósiles.
Una vez que los modelos de IA generativa están entrenados, su uso cotidiano, conocido como "inferencia", sigue requiriendo una cantidad considerable de energía. Por ejemplo, cada consulta a ChatGPT consume aproximadamente cinco veces más electricidad que una búsqueda web estándar. Este consumo energético es resultado de la complejidad de las operaciones computacionales necesarias para responder a las preguntas de los usuarios.
A medida que la IA generativa se integra en más aplicaciones, se espera que las demandas energéticas de la inferencia superen a las del entrenamiento. Esto se agrava por la corta vida útil de los modelos, ya que las empresas lanzan nuevas versiones cada pocas semanas, lo que implica que la energía utilizada en modelos antiguos se desaprovecha.
El enfriamiento de los centros de datos, un proceso crítico para evitar el sobrecalentamiento del hardware, requiere grandes volúmenes de agua. Se estima que por cada kilovatio-hora de electricidad consumido, un centro de datos necesita dos litros de agua para enfriamiento. Este uso intensivo de agua tiene implicaciones directas en la biodiversidad local y puede contribuir al estrés hídrico en comunidades cercanas.
La fabricación de hardware especializado, como unidades de procesamiento gráfico (GPU) necesarias para manejar cargas de trabajo intensivas de IA generativa, tiene impactos ambientales indirectos. La complejidad del proceso de fabricación de GPUs implica un mayor consumo energético en comparación con procesadores más simples (CPU). Además, la extracción de materias primas para fabricar estos componentes a menudo implica prácticas mineras contaminantes y el uso de productos químicos tóxicos.
En 2023, los principales fabricantes de GPUs, como NVIDIA, AMD e Intel, enviaron 3.85 millones de unidades a centros de datos, un aumento significativo respecto a años anteriores. Este crecimiento exponencial refuerza el carácter insostenible de la industria si no se implementan medidas correctivas.


EN RESUMEN (que es un tochaco y entiendo que no mucha gente quiera leerlo): Mantener los servidores, entrenar las IAs generativas y usarlas es contaminante porque se usan muchos recursos, muchisima agua y electricidad
Me importa más que deje sin trabajo a diseñadores gráficos y periodistas, la verdad.
 
Me importa más que deje sin trabajo a diseñadores gráficos y periodistas, la verdad.
También es otro de los problemas de la IA generativa, he puesto que contaminaba como podria haber puesto eso tambien 😅 Creo que se pueden criticar ambas cosas, mi comentario no iba a malas pri ❤️

Simplemente por experiencia a mucha gente le importa mas el tema medio ambiente que no el tema creativo, etico y moral. (A mi tambien me molesta, la verdad es que los trabajos creativos, ya sean de diseño grafico, ilustracion, musica, escritura etc deberian valorarse mas)
 
Copiado de la web del SEDIC (Sociedad Española de Documentación e Información científica):


El impacto ambiental de la IA generativa

El entrenamiento y la implementación de modelos de IA generativa requieren una potencia computacional extraordinaria debido a la complejidad de los modelos, que a menudo contienen miles de millones de parámetros. Este proceso implica un consumo masivo de electricidad, generando emisiones de dióxido de carbono (CO₂) y ejerciendo presión sobre las redes eléctricas. Incluso después de entrenados, estos modelos continúan demandando grandes cantidades de energía para su uso y ajuste, intensificando su huella ambiental.
Además de la electricidad, el enfriamiento de los equipos de hardware empleados en estos procesos consume cantidades significativas de agua, afectando los suministros municipales y los ecosistemas locales. La creciente demanda de hardware de alto rendimiento, necesario para estas tecnologías, también agrava el impacto ambiental debido a los procesos de fabricación y transporte involucrados.
Los centros de datos, esenciales para entrenar y ejecutar modelos de aprendizaje profundo como ChatGPT o DALL-E, son una de las principales fuentes de consumo energético en el ámbito de la IA generativa. Estos centros, que albergan miles de servidores y equipos de red, operan en condiciones de temperatura controlada para mantener el funcionamiento óptimo de sus componentes.
Según datos de la Organización para la Cooperación y el Desarrollo Económico (OCDE), el consumo global de electricidad de los centros de datos alcanzó 460 teravatios en 2022, lo que los posicionaría como el undécimo mayor consumidor de electricidad en el mundo, superando a países como Arabia Saudita. Este consumo podría duplicarse para 2026, lo que situaría a los centros de datos entre los cinco mayores consumidores globales de electricidad, un hecho impulsado en gran parte por la IA generativa.
El entrenamiento de un modelo como GPT-3, por ejemplo, consume aproximadamente 1,287 megavatios-hora de electricidad, equivalente a la energía utilizada por 120 hogares promedio en Estados Unidos durante un año. Este proceso también genera unas 552 toneladas de CO₂. Además, las fluctuaciones rápidas en el consumo de energía durante las distintas fases del entrenamiento añaden complejidad, ya que las redes eléctricas deben estar preparadas para absorber estas variaciones mediante generadores diésel, lo que incrementa la dependencia de combustibles fósiles.
Una vez que los modelos de IA generativa están entrenados, su uso cotidiano, conocido como "inferencia", sigue requiriendo una cantidad considerable de energía. Por ejemplo, cada consulta a ChatGPT consume aproximadamente cinco veces más electricidad que una búsqueda web estándar. Este consumo energético es resultado de la complejidad de las operaciones computacionales necesarias para responder a las preguntas de los usuarios.
A medida que la IA generativa se integra en más aplicaciones, se espera que las demandas energéticas de la inferencia superen a las del entrenamiento. Esto se agrava por la corta vida útil de los modelos, ya que las empresas lanzan nuevas versiones cada pocas semanas, lo que implica que la energía utilizada en modelos antiguos se desaprovecha.
El enfriamiento de los centros de datos, un proceso crítico para evitar el sobrecalentamiento del hardware, requiere grandes volúmenes de agua. Se estima que por cada kilovatio-hora de electricidad consumido, un centro de datos necesita dos litros de agua para enfriamiento. Este uso intensivo de agua tiene implicaciones directas en la biodiversidad local y puede contribuir al estrés hídrico en comunidades cercanas.
La fabricación de hardware especializado, como unidades de procesamiento gráfico (GPU) necesarias para manejar cargas de trabajo intensivas de IA generativa, tiene impactos ambientales indirectos. La complejidad del proceso de fabricación de GPUs implica un mayor consumo energético en comparación con procesadores más simples (CPU). Además, la extracción de materias primas para fabricar estos componentes a menudo implica prácticas mineras contaminantes y el uso de productos químicos tóxicos.
En 2023, los principales fabricantes de GPUs, como NVIDIA, AMD e Intel, enviaron 3.85 millones de unidades a centros de datos, un aumento significativo respecto a años anteriores. Este crecimiento exponencial refuerza el carácter insostenible de la industria si no se implementan medidas correctivas.


EN RESUMEN (que es un tochaco y entiendo que no mucha gente quiera leerlo): Mantener los servidores, entrenar las IAs generativas y usarlas es contaminante porque se usan muchos recursos, muchisima agua y electricidad

Sabes otra cosa que necesita servidores y electricidad y por ende contamina también ? Internet
 
Sabes otra cosa que necesita servidores y electricidad y por ende contamina también ? Internet
Pero pri, como dice en el texto que he mandado, estas IAs contaminan mas que el internet normal. Por ponerte un ejemplo, es como si internet fuera un cochecillo y las IAs un camion, el consumo es mayor por parte de unos que por otros

Está claro que casi cualquier cosa creada por el hombre contamina, pero hay algunas cosas peores que otras 😅

Y siento si mis mensajes te han ofendido, no es mi intencion atacar a nadie, tan solo queria concienciar al respecto ❤️
 
Un agente forestal cobra razonablemente, igual están por los 1.800€ netos al mes. A poco que ganen los otros entran en la casa más de 4.000€. Y viven en un piso en Villalba, no en un dúplex en Serrano.
Pero como va a ganar JP 2000 euros si no tiene
A ver, sobre quienes piden datos sobre la otra boda:

Lo pongo en Spoiler porque tengo claro que esto lo va a leer JPeligrossa (confirmaremos que está enganchado al foro) y lo cambiará: la Pingu tiene el Facebook abierto con su nombre y apellido, y es MUY fácil dar con su ex. Hasta ahí puedo leer.
Lo he cotilleado pero solo veo unas pocas fotos y nada de donde tirar!!! Otra pista? O por privado? Jajaja
 
Back