Las emisiones de carbono de Google han aumentado un 48 % en los últimos cinco años, impulsadas por el crecimiento de la inteligencia artificial (IA), informó el martes la empresa estadounidense. Esto resalta uno de los principales desafíos del rápido desarrollo de esta tecnología: su alto consumo de energía.
¿Por qué consume tanta energía la IA?
Los modelos de lenguaje utilizados por las IA generativas requieren una gran capacidad de cómputo para ser entrenados con vastas cantidades de datos, lo que demanda potentes servidores.
Cada vez que un usuario interactúa con ChatGPT u otra IA generativa, activa servidores ubicados en centros de datos. Estos servidores consumen electricidad, generan calor y necesitan sistemas de refrigeración que también consumen energía.
Según la Agencia Internacional de la Energía (AIE), aproximadamente el 40 % de la electricidad en los centros de datos se utiliza para alimentar los servidores y otro 40 % se emplea en su refrigeración. Estudios indican que una interacción con ChatGPT consume en promedio 10 veces más energía que una simple búsqueda en Google.
Desde 2022, el auge de la IA ha llevado a gigantes tecnológicos como Amazon, Google y Microsoft a invertir considerablemente en la expansión de centros de datos en todo el mundo. En su informe ambiental, Google destaca el aumento en el consumo de energía de sus centros de datos, así como el incremento en las emisiones relacionadas con la construcción y modernización de estas instalaciones.
¿Cuánta energía consume la IA?
Antes del auge de la IA, los centros de datos representaban alrededor del 1 % del consumo mundial de electricidad, según la AIE. Considerando la IA y el sector de las criptomonedas, los centros de datos consumieron casi 460 TWh de electricidad en 2022, equivalente al 2 % de la producción eléctrica mundial total, según la misma fuente.
Se estima que esta cifra podría duplicarse para 2026, alcanzando los 1.000 TWh, equivalente al consumo eléctrico de Japón, según advierte la institución en un informe.
Alex de Vries, economista de la Universidad Libre de Ámsterdam, ha modelado el consumo eléctrico necesario exclusivamente para la inteligencia artificial basándose en proyecciones de ventas de Nvidia, cuyos procesadores son fundamentales para el entrenamiento de modelos de IA. Basado en las ventas proyectadas de Nvidia para 2023 y considerando el máximo rendimiento de todos los servidores, de Vries estima un consumo anual entre 85,4 y 134 TWh, equivalente al consumo de electricidad de un país como Argentina.
"Las cifras que presenté en mi artículo fueron conservadoras inicialmente porque no tuve en cuenta aspectos como las necesidades de refrigeración", explicó de Vries a AFP.
Las ventas de Nvidia superaron las expectativas el año pasado, lo que sugiere que las cifras podrían ser aún mayores, agregó.
Komentarji