La IA vs el planeta

Las emisiones de carbono de Google aumentaron un 48% en cinco años debido al auge de la inteligencia artificial (IA), evidenciando uno de los principales problemas del rápido desarrollo de esta tecnología: su alto consumo de energía.

Según la Agencia Internacional de la Energía (AIE), los centros de datos emplean, en promedio, el 40% de su electricidad para alimentar los servidores y otro 40% para enfriarlos.

Al sumar la IA y el sector de las criptomonedas, los centros de datos consumieron casi 460 TWh de electricidad en 2022, lo que representa el 2% de la producción mundial total, según la AIE. Esta cifra podría duplicarse en 2026, alcanzando los 1.000 TWh, equivalentes al consumo eléctrico de Japón, advierte la institución en un informe.

Por otra parte, si las estimaciones de ventas de Nvidia para 2023 son correctas, y si todos los servidores operaran al máximo de su capacidad, podrían consumir entre 85,4 y 134 TWh al año, una cifra similar al consumo de un país como Argentina (Ojo al Clima, julio 2024).

La IA, cuyo concepto se remonta a varias décadas, tiene raíces en los orígenes de la informática moderna. Sin embargo, su representación en la cultura popular, como en “Blade Runner” y “2001: Odisea del espacio”, tiende a simplificar y distorsionar su impacto, al enfocarse en narrativas donde robots con apariencia humana se rebelan contra sus creadores. La realidad es que la IA moderna se define como sistemas informáticos capaces de simular el pensamiento humano y capacidades como el aprendizaje.

El consumo de energía asociado a la IA es un tema crítico debido al crecimiento acelerado de tecnologías avanzadas. Tanto el entrenamiento como la operación de modelos de IA demandan recursos computacionales intensivos, lo que incrementa significativamente el consumo energético.

Entrenamiento de modelos

El proceso de entrenamiento de modelos de IA es extremadamente intensivo en energía. Durante esta fase, los modelos analizan grandes volúmenes de datos mediante operaciones matemáticas complejas realizadas en unidades de procesamiento gráfico (GPU) o unidades de procesamiento tensorial (TPU). Por ejemplo:

Entrenar un modelo de lenguaje grande, como GPT-3, puede consumir miles de kilovatios-hora (kWh), lo que equivale al consumo anual de decenas de hogares promedio.

Estudios estiman que el entrenamiento de un modelo avanzado puede generar emisiones de carbono comparables a las de un vuelo transatlántico.

Inferencia y uso diario

Después del entrenamiento, el uso cotidiano de la IA, conocido como inferencia, también consume energía, aunque en menor medida. Aplicaciones como asistentes virtuales, traducción automática o motores de recomendación procesan millones de solicitudes por segundo, lo que, en conjunto, genera un impacto energético considerable.

Infraestructura y centros de datos

El despliegue de modelos de IA depende de centros de datos masivos, que requieren energía constante tanto para alimentar los servidores como para mantener su temperatura óptima. Si estos centros dependen de redes eléctricas tradicionales, la huella de carbono se incrementa si no se utilizan fuentes renovables.

Según el informe más reciente de Goldman Sachs Research (2024), la demanda energética de los centros de datos, impulsada principalmente por la IA, crecerá un 160% para el año 2030. Este aumento se atribuye al entrenamiento y operación de modelos avanzados, que requieren recursos computacionales cada vez más significativos. Además, se estima que los sistemas de IA consumen 33 veces más energía para realizar una tarea que un software específico diseñado para la misma función (UNIR, Ernesto del Valle, noviembre 2024).

Ante este desafío, las empresas líderes buscan soluciones sostenibles. Por ejemplo, Google ha firmado un acuerdo con Kairos Power para desarrollar pequeños reactores nucleares modulares (SMR) y alimentar sus centros de datos con energía limpia. “Hoy firmamos el primer acuerdo corporativo del mundo para adquirir energía nuclear de múltiples reactores modulares pequeños (SMR) que desarrollará Kairos Power”, declaró Google en un comunicado (BBC, octubre 2024).

Aquellos que abogan por el uso masivo de la IA deben ser conscientes de su alto consumo energético y priorizar la eficiencia tecnológica mediante iniciativas como:

Optimización de algoritmos: Desarrollar modelos más eficientes que requieran menos datos y energía.

Hardware especializado: Implementar chips energéticamente eficientes, como las TPUs.

Energía renovable: Alimentar centros de datos con fuentes de energía limpia.

Desde una perspectiva ambiental, la tecnología no solo debe enfocarse en hacer más poderosa la IA, sino en hacerla más eficiente. Este es un reto que científicos, ingenieros y científicos de datos deben priorizar si desean alcanzar sus ambiciosas metas. No es solo cuestión de profundizar la tecnología, sino de hacerla sostenible, evitando que se una al coro de destrucción del planeta.

Juan Camilo Clavijo