OpenAI y Nvidia han revelado planes para construir centros de datos de inteligencia artificial que consumirán hasta 10 gigavatios de electricidad cada uno, una cantidad equivalente al consumo energético de Nueva York en pleno verano o San Diego durante su ola de calor récord de 2024.
Los proyectos adicionales en desarrollo sumarían un total de 17 gigavatios, cifra cercana al consumo energético combinado de Suiza y Portugal. La magnitud de estas instalaciones ha sido descrita por expertos como un “momento seminal” para la computación y la energía a nivel global.
Andrew Chien, profesor de ciencias de la computación en la Universidad de Chicago, señaló que este crecimiento en el consumo energético es tanto emocionante como alarmante. “He sido científico de la computación por 40 años, y durante mucho tiempo esta área representaba apenas una fracción del consumo total. Ahora se está convirtiendo en una porción significativa de lo que la economía global demanda”, explicó.
Fengqi You, profesor de ingeniería de sistemas energéticos en la Universidad de Cornell, coincidió: “Diez gigavatios supera la demanda máxima de Suiza o Portugal. Diecisiete gigavatios equivale a alimentar ambos países juntos”, aseguró.
Los expertos advierten que, para 2030, la computación podría representar hasta 10% o 12% del consumo mundial de energía, lo que plantea interrogantes sobre la sostenibilidad y el impacto ambiental de la rápida expansión de la inteligencia artificial.
OpenAI y Nvidia argumentan que estos megacentros son esenciales para sostener la próxima generación de modelos de IA avanzados, pero el anuncio ha reavivado el debate sobre la eficiencia energética y la huella ambiental de la tecnología moderna.