tecnología, energía, IA, inteligencia artificial
14 enero 2025.- El 2024 pasará a la historia como el año en que el sector energético despertó ante la IA. Todas las conferencias sobre energía ofrecen múltiples sesiones sobre el tema y en ellas abarrotan las salas. El Informe sobre el mercado eléctrico del año pasado publicado por la Agencia Internacional de la Energía (AIE) no contenía ni una sola mención a los centros de datos , mientras que el informe de este año tenía una sección entera dedicada a ellos .
Este es también el año en que la IA se dio cuenta de la energía. Los titanes tecnológicos más poderosos del mundo se han sentido humillados al darse cuenta de que sus planes de dominación mundial podrían verse frustrados por algo tan prosaico como la electricidad, y se han embarcado en una apropiación de territorios para obtener todas las fuentes de energía despachable que puedan, lo que ha desencadenado una especie de fiebre del oro.
¿Es el frenesí energético de los centros de datos tan solo la última de una larga lista de burbujas en el sector energético, o es el amanecer de una nueva normalidad? ¿Crean los centros de datos una demanda tan fuerte que desencadenan una nueva era de nuevas tecnologías nucleares, geotérmicas y otras tecnologías limpias y despachables? ¿O simplemente absorben las fuentes existentes de energía limpia y aumentan el uso de combustibles fósiles, lo que provoca una ola de resentimiento y regulación?
Una (muy) breve historia de la IA
La inteligencia artificial existe desde hace muchas décadas, durante las cuales ha pasado por múltiples ciclos de Gartner. Cualquiera que tenga la edad suficiente recordará la emoción que se vivió en 1997, cuando Deep Blue de IBM derrotó al campeón de ajedrez Garry Kasparov, pero todo lo que el público vio fueron computadoras de ajedrez ligeramente mejores. En la década de 2000, el aprendizaje automático condujo a avances en la visión artificial, pero el único producto de mercado masivo que surgió fue una aspiradora robot que no podía evitar las heces de perro.
En la década de 2010, llegaron el aprendizaje profundo y el procesamiento del lenguaje natural. De repente, Facebook podía identificar videos de gatos, los vehículos podían evitar colisiones, Google Translate podía leer artículos en cualquier idioma y los algoritmos de las redes sociales podían... bueno, no hablemos de eso. Sin embargo, los servicios basados en inteligencia artificial estaban lejos de ser impresionantes. Siri interrumpía conversaciones al azar, las cajas de los supermercados seguían siendo engañadas por "artículos inesperados en el área de empaquetado" y los chatbots eran completamente inútiles.
Todo eso cambió en dos años, entre noviembre de 2020 y noviembre de 2022. Primero, AlphaFold2 de Google DeepMind demostró que podía predecir las estructuras de las proteínas.Y luego se lanzó ChatGPT. De repente, la IA podía demostrar teoremas matemáticos, hacer avances en la ciencia médica y de los materiales, mejorar la previsión meteorológica, generar imágenes y vídeos a partir de indicaciones de texto y escribir mejor código informático que los humanos. ¡Boom!
Nvidia, el principal proveedor mundial de unidades de procesamiento gráfico (GPU), diseñadas originalmente para videojuegos pero ideales para las tareas de alto rendimiento asociadas con la IA generativa, recibió una avalancha de pedidos. El precio de sus acciones se disparó por un factor de 10, lo que le dio un valor de mercado de más de 3 billones de dólares, convirtiéndola en una de las empresas más valiosas del mundo y colocándola en una liga poblada principalmente por otros pesos pesados de la IA como Microsoft, Meta (Facebook), Amazon y Apple. Nada anunció con más fuerza el amanecer de la era de la IA que el hecho de que Nvidia sustituyera a Intel el mes pasado en el Promedio Industrial Dow Jones.
Stephen Schwarzman, presidente y director ejecutivo de Blackstone, el mayor inversor de capital privado del mundo, anunció que las consecuencias de la IA serán “tan profundas como lo que ocurrió en 1880 cuando Thomas Edison patentó la bombilla eléctrica”. Y entonces todos se dieron cuenta de que el factor que limitaría el crecimiento de la IA no iba a ser la potencia informática, sino la potencia eléctrica.
Elon Musk, CEO de Tesla y propietario de Twitter y X.ai, señaló en marzo de 2024 que “hoy tenemos escasez de silicio, escasez de transformadores en aproximadamente un año y escasez de electricidad en aproximadamente dos años ”. Mark Zuckerberg, CEO de Meta, afirmó que su empresa construiría más centros de datos si pudiera obtener más energía .
Sam Altman, fundador y director ejecutivo de OpenAI, resumió: “Todavía no apreciamos las necesidades energéticas de esta tecnología… no hay forma de llegar a ellas sin un gran avance… necesitamos fusión o necesitamos energía solar radicalmente más barata más almacenamiento, o algo así”. A quienes intentan encontrar energía limpia para industrias con un uso intensivo de energía se les puede perdonar un poco de regocijo por el mal ajeno.
Ya hemos estado aquí antes
A principios de este siglo, las empresas gestionaban sus propios centros de datos “in situ”. La electricidad era lo último en lo que pensaba el director de TI medio. Cuando Internet irrumpió en escena, generó nuevos modelos de negocio digitales, generó enormes volúmenes de vídeo e impulsó un aumento masivo de la complejidad, el riesgo y la demanda de energía del sistema. En 1999, Peter Huber y Mark Mills escribieron un artículo para Forbes en el que afirmaban que “era razonable proyectar que la mitad de la red eléctrica alimentará la economía digital de Internet en la próxima década”.
En 2007, encargada de informar al Congreso sobre las implicaciones ambientales de Internet, la Agencia de Protección Ambiental (EPA) señaló que el uso de energía de los centros de datos de Estados Unidos se había duplicado entre 2000 y 2006 hasta alrededor del 1,5% del uso total de energía y planteó el espectro de que se duplicara nuevamente en 2011, lo que desaceleraría significativamente el retiro de la envejecida flota de centrales eléctricas a carbón de Estados Unidos.
Pero no fue así. Las empresas comenzaron a trasladar sus operaciones a la nube y lograron ganancias de eficiencia de más del 90 % gracias a una combinación de nuevos servidores con chips más grandes y rápidos, economías de escala y una mejor infraestructura . La efectividad del uso de energía (PUE) promedio (la relación entre la energía total utilizada en un centro de datos y la energía utilizada por sus servidores) se redujo de 2,7 en 2007 a 1,5 en 2021 , y los mejores centros de datos ahora ofrecen PUE de tan solo 1,1 . En 2011, los centros de datos todavía usaban menos del 2 % de la energía total de EE.UU .
Esto llevó al profesor Jonathan Koomey, entonces de la Universidad de Stanford y del Laboratorio Nacional Lawrence Berkeley, a formular lo que se conoce como la Ley de Koomey: la eficiencia energética del cómputo se duplica cada 18 meses durante seis décadas, casi exactamente igualando las mejoras de la Ley de Moore en el rendimiento de las computadoras .
No pasó mucho tiempo hasta que se desató otra ola de pánico energético en los centros de datos. En 2015, dos investigadores de Huawei, Anders Andrae y Tomas Edler, pronosticaron que los centros de datos utilizarían hasta 1.700 teravatios-hora de energía para 2022, más del 6% de la electricidad mundial . En 2017, el Foro Económico MundialY Newsweek anunció sin aliento que la minería de criptomonedas podría consumir toda la energía eléctrica del mundo en 2020.
Pero eso tampoco sucedió. La minería de criptomonedas se volvió más eficiente, los reguladores intervinieron, Ethereum y otras monedas pasaron de la prueba de trabajo a la prueba de participación, y la burbuja de las criptomonedas estalló. A lo largo de la década de 2010, los centros de datos se mantuvieron muy por debajo del 1,5% de la demanda energética mundial, un poco más en los EE.UU., un poco más bajo en otros lugares.
Sin embargo, en 2020, la demanda de energía de los centros de datos finalmente comenzó a despegar, en parte impulsada por la respuesta a los confinamientos por el Covid y en parte porque la tendencia a la subcontratación a centros de datos basados en la nube estaba perdiendo fuerza. Pero también se debió a que la IA comenzó a impulsar aumentos en la complejidad computacional: las unidades centrales de procesamiento (CPU) de un solo chip que consumen entre 100 y 200 vatios comenzaron a dar paso a unidades de procesamiento gráfico (GPU) que consumen hasta 700 vatios.
Entonces, ¿el gran pánico energético de los centros de datos es diferente esta vez? Para llegar a una conclusión, debemos responder las siguientes preguntas:
¿Qué tan rápido evolucionará la demanda de servicios de IA?
¿Cómo serán los centros de datos de IA y dónde estarán?
¿Cuántos centros de datos se construirán?
¿Qué gana: la Ley de Koomey o el efecto Jevons?
¿Qué fuentes de energía se utilizarán para satisfacer la demanda?
¿Cuál será el impacto de la IA en la economía en general?
1. Si lo construyen ¿vendremos?
¿Con qué rapidez se comerá el mundo la IA? Quién sabe. Como dice Bill Gates: “Siempre sobreestimamos el cambio que ocurrirá en los próximos dos años y subestimamos el cambio que ocurrirá en los próximos diez”.
Sin duda, no se puede extrapolar una tendencia a largo plazo a partir de la gente que prueba aplicaciones de forma gratuita.
En algún momento, los usuarios tendrán que asumir todos los costos asociados con los servicios de IA. En septiembre del año pasado, David Cahn, socio de la empresa de capital de riesgo Sequoia Capital, planteó lo que llamó la pregunta de los 200 mil millones de dólares de la IA . Cahn estimó que, para justificar los gastos de capital que implica la cartera de ingresos a corto plazo de Nvidia, los gigantes tecnológicos necesitarían generar ingresos anuales de los servicios de IA de 200 mil millones de dólares. En junio de 2024, con las previsiones de ventas de Nvidia en alza, actualizó la cifra a 600 mil millones de dólares . Cahn estimó que los ingresos de IA a corto plazo serían de un máximo de 100 mil millones de dólares, lo que deja un agujero de 500 mil millones de dólares, equivalente a poco menos de la mitad de los ingresos agregados de Amazon, Microsoft, Meta y Alpha, la empresa matriz de Google.
Si asumimos que los 600 mil millones de dólares de ingresos anuales requeridos provendrán de alrededor de mil millones de personas altamente conectadas en el mundo, cada uno tendría que gastar un promedio de 600 dólares al año, ya sea como pagos directos a los proveedores de IA o pagos indirectos para la IA integrada en los servicios utilizados en el hogar o en el trabajo. No es una cantidad escandalosa –una magnitud similar a las facturas de los teléfonos celulares–, pero es difícil ver cómo se podría cubrir rápidamente con los presupuestos existentes para una franja tan grande de la población mundial.
Por otra parte, si asumimos que los 600.000 millones de dólares serán sufragados sólo por los 100 millones de usuarios más ricos y más intensivos de los servicios digitales del mundo, ellos o sus empleadores tendrían que aportar una suma mucho mayor, 6.000 dólares al año. Una vez más, no es una cifra imposible, pero no es una que se pueda encontrar en el presupuesto del año próximo. Mientras tanto, los gastos de capital planificados por los titanes de la tecnología han seguido aumentando, por lo que los ingresos anuales requeridos por usuario siguen aumentando.
Por lo tanto, si bien está claro que la IA será verdaderamente transformadora, todavía podría llevar una década justificar los niveles actuales de inversión. Lo que eso significa es que hay dos futuros posibles: uno en el que los mercados de capitales estén felices de permitir que los hiperescaladores sigan invirtiendo dinero en IA con la expectativa de un futuro liderazgo del mercado (y haciendo estallar sus balances en el proceso), y otro en el que no lo estén.
La experiencia de revoluciones tecnológicas anteriores (la luz eléctrica, los ferrocarriles, Internet, la cadena de bloques) sugiere que nos espera un camino lleno de baches.
2. Es un centro de datos, pero no como lo conocemos
Entrenar un modelo de IA generativa requiere potencia. Mucha potencia. También requiere que esa potencia se concentre en una ubicación, de modo que decenas o cientos de miles (y quizás, en última instancia, millones) de GPU puedan comunicarse entre sí sin latencia. Existe una relación demostrada entre la escala de entrenamiento y el rendimiento final del modelo de IA: la receta perfecta para una carrera armamentista.
Lo que estaba en juego no podía ser más importante. El año pasado, Meta puso en pausa todo su programa de construcción de centros de datos, incluso demolió uno que ya estaba parcialmente construido, y comenzó de nuevo utilizando un nuevo diseño preparado para IA .
Según la AIE, los más de 11.000 centros de datos que hay en todo el mundo tienen una capacidad energética media de menos de 10 MW.Incluso el centro de datos promedio de un hiperescalador actualmente solo tiene alrededor de 30 MW. Sin embargo, el centro de datos promedio ha ido creciendo y los centros de datos se agrupan cada vez más en campus, dos tendencias que ejercen una presión extrema sobre la red eléctrica.
El grupo de centros de datos del norte de Virginia, el más grande del mundo con alrededor de 2,5 gigavatios, absorbe alrededor del 20% de la energía eléctrica de la región, creciendo alrededor del 25% por año . En 2022, el proveedor de energía local Dominion Energy tuvo que pausar las nuevas conexiones durante varios meses. En Irlanda, el año pasado el consumo de energía de los centros de datos alcanzó el 21% del total del país, frente al 5% en 2015 , lo que llevó a EirGrid, el operador del sistema de transmisión, a emitir una moratoria sobre el desarrollo de nuevos centros de datos en Dublín hasta 2028.
En un informe técnico de 2021, postulé que los operadores de centros de datos tendrían que trasladar las cargas que no fueran críticas en términos de latencia a lo que llamé gigantes verdes: centros de datos de varios cientos de megavatios ubicados fuera de los límites de las ciudades . Alimentados por electricidad limpia, se esperaría que respaldaran la red, en lugar de interrumpirla. Fue algo radical en ese momento, pero está sucediendo: los grandes desarrollos de centros de datos se están trasladando de las áreas urbanas a donde pueden encontrar energía.
En la actualidad, los centros de datos que se utilizan para entrenar modelos de IA suelen tener entre 75 MW y 150 MW. La mayoría de los que están en construcción tienen entre 100 MW y 250 MW, y unos pocos gigantes ecológicos tienen entre 500 MW y 1 GW. Sin embargo, lo que realmente quiere la industria tecnológica son centros de datos de entrenamiento de IA de entre 1 GW y 2 GW. Microsoft y OpenAI están negociando un complejo de supercomputadoras de 5 GW y 100 000 millones de dólares llamado Stargate . Amazon ha dicho que planea gastar 150 000 millones de dólares en los próximos 15 años en centros de datos. En noviembre pasado, KKR y el inversor energético Energy Capital Partners firmaron un acuerdo para invertir hasta 50.000 millones de dólares en centros de datos de IA. BlackRock ha lanzado un fondo de infraestructura de IA de 30.000 millones de dólares.
Estos enormes centros de datos serán tan complejos y costosos como los portaaviones o los submarinos nucleares . Solo la construcción de un centro de datos de 1 GW costará hasta 12.000 millones de dólares (construcción a prueba de vibraciones, suministro de energía, sistemas UPS, refrigeración, etc.). 100.000 GPU podrían costarle otros 4.000 millones de dólares , y eso es antes de haber instalado refrigeración líquida inmersiva o basada en chip, y comunicaciones de baja latencia y ancho de banda súper alto .
Para el entrenamiento de la IA, la latencia no es un problema, por lo que los centros de datos pueden estar en cualquier parte del mundo con conexiones de fibra, permisos de construcción, habilidades, seguridad y privacidad de datos. Sin embargo, cuando se trata de "inferencia" (utilizar el modelo para responder preguntas), los resultados deben entregarse al usuario sin latencia, y eso significa centros de datos en ciudades o cerca de ellas. Pueden parecerse a los centros de datos con los que estamos familiarizados, pero deberán ser más grandes. Según EPRI, una sola consulta de ChatGPT requiere alrededor de 2,9 vatios-hora., en comparación con los 0,3 vatios-hora que se necesitan en una búsqueda en Google, lo que genera una demanda de energía de un orden de magnitud mayor. Incluso los centros de datos de inferencia necesitarán 100 MW o más.
3. Un gran poder de IA conlleva una gran demanda de poder
Nada ilustra mejor la incertidumbre actual sobre la adopción de IA que la variedad de pronósticos sobre la demanda de energía, que van desde un insignificante aumento global del 35% entre ahora y 2030 hasta un sorprendente crecimiento del 250% solo en Estados Unidos para 2028.
La AIE es una de las voces más conservadoras. Su principal Escenario de Políticas Declaradas (STEPS, por sus siglas en inglés) prevé que la demanda mundial de energía (excluyendo la minería de criptomonedas y las redes de TI) aumente solo entre un 35% y un 100% para 2030, lo que sumará entre 120 TWh y 390 TWh de demanda, un aumento que podría satisfacerse con menos de 50 GW de energía despachable adicional. La Comisión Federal Reguladora de Energía de Estados Unidos (FERC, por sus siglas en inglés) también se sitúa en el extremo conservador, ya que espera que la carga de los centros de datos de Estados Unidos crezca en no más de dos tercios hasta 2030, lo que sumará entre 21 GW y 35 GW de demanda .
Cifras tan bajas son difíciles de justificar. Chat GPT3 se entrenó utilizando un clúster de 10.000 GPU; Chat GPT4 requirió 25.000 GPU; Chat GPT5, se rumorea que 50.000 . x.AI de Elon Musk acaba de construir un centro de datos de 100.000 GPU, y ya se habla del primer centro de datos de un millón de GPU de este lado de 2030. Pero no es solo una cuestión de cantidad de GPU: también consumen más energía. La GPU Ampere A100 de Nvidia, lanzada en 2020, consumía hasta 400 W. La Hopper H100, lanzada dos años después y el estándar actual de la industria, consume 700 W. La Nvidia Blackwell B100, que se espera que se envíe a fines de este año, consumirá hasta 1200 W. Un solo rack de 72 GPU Blackwell, junto con el resto del sistema, consumirá hasta 120 kW: tanto como 100 hogares en EE. UU. o 300 hogares europeos.
Boston Consultancy Group prevé que la demanda energética de los centros de datos de EE.UU. se triplicará hasta el 7,5% de la energía de EE.UU. en 2030 desde el 2,5% en 2022. Goldman Sachs espera que la cifra alcance el 8%, lo que requerirá 47 GW adicionales de suministro despachable . El Electric Power Research Institute (EPRI) ofrece cuatro escenarios, y el más agresivo muestra que el consumo total de energía de EE. UU. alcanzará el 9,1% en 2030. McKinsey es el más optimista de todos, ya que predice que la demanda mundial de centros de datos podría crecer en 240 GW entre 2023 y 2030, y que en EE. UU. podrían absorber hasta el 12% de toda la energía para 2030 .
El análisis de demanda más detallado es el realizado por los especialistas independientes en la cadena de suministro de semiconductores Semi Analysis. Han construido un modelo basado en el consenso de los analistas sobre la cantidad de GPU en el proceso de ventas de Nvidia , señalando, por ejemplo, que los tres millones de aceleradores de IA que se espera que se envíen solo en 2024 requerirían hasta 4,2 GW de energía despachable. Su caso base prevé que la demanda mundial de centros de datos se triplique hasta alrededor de 1.500 teravatios-hora para 2030, creciendo de alrededor del 1,5% al 4,5% de la demanda mundial total de energía y requiriendo la construcción de 100 GW de nuevo suministro de energía despachable.
Sin embargo, Semi Analysis va un paso más allá. Señala que los nuevos centros de datos de IA no se distribuirán de manera uniforme en todo el mundo. Calcula que hoy Europa alberga solo el 4% de la capacidad de cómputo de IA; sus precios de energía comercial son aproximadamente el doble de los de Estados Unidos y, como dice Semi Analysis, con cierta modestia, “añadir una cantidad masiva de capacidad de generación de energía para albergar el auge de los centros de datos de IA en Europa sería muy difícil”.
China, el país con mayor capacidad de generación a gran velocidad, tiene prohibido comprar los últimos productos de Nvidia, aunque se sabe que ha obtenido acceso a una pequeña cantidad de GPU Blackwell. Aunque Huawei está trabajando en estrecha colaboración con el gobierno para ponerse al día por todos los medios posibles, se estima que China está cinco años por detrás de Estados Unidos. La región del Golfo está muy interesada en desempeñar un papel de liderazgo en IA. Los Emiratos Árabes Unidos han tenido un Ministro de IA desde 2017. Google está negociando un centro de IA con el Fondo de Inversión Pública de 930 mil millones de dólares de Arabia Saudita, y se informa que Neom está considerando un centro de datos de 1 GW. Sin embargo, la experiencia es mínima y las implicaciones de privacidad y seguridad son abrumadoras.
Por lo tanto, durante los próximos años, la mayor parte de la nueva capacidad de centros de datos de IA se construirá en Estados Unidos. Semi Analysis estima que la demanda de energía de los centros de datos de Estados Unidos aumentará un 250 % para 2030, absorbiendo casi el 15 % de la energía total y requiriendo la construcción de 76 GW de nuevo suministro despachable.
4. ¿Qué pasa con la economía en general?
Si bien la IA planteará un enorme desafío para los sistemas energéticos del mundo, también ayudará a mitigar la demanda de energía en formas que apenas podemos empezar a imaginar.
La IA ya está impulsando una ola de innovación en el sector energético, aunque, para ser claros, no tanto en forma de IA generativa y modelos de lenguaje a gran escala. Está ayudando a los generadores a diseñar, programar el mantenimiento y optimizar la producción de parques eólicos y solares. Se está utilizando para ayudar a los operadores de la red a exprimir más capacidad de las líneas de transmisión existentes, para identificar la invasión de follaje en las líneas eléctricas y para detectar incendios antes de que se propaguen.
La IA está mejorando la previsión meteorológica, lo que ayuda a reducir las cargas máximas de calefacción y refrigeración. Las principales empresas de servicios públicos la están utilizando para generar señales de precios en el momento del uso para enviar a los clientes, lo que ayuda a impulsar la demanda para que coincida con los períodos de alto suministro de energía renovable. El comercio de energía impulsado por IA está mejorando la utilización de baterías conectadas a la red y otros recursos. La lista de posibles casos de uso es interminable.
En la economía en general, la IA ayudará a reducir la presión sobre la demanda energética. Permitirá optimizar las redes de transporte y distribución, reduciendo la congestión y el uso de combustible. Ayudará a optimizar la utilización de la infraestructura, reduciendo la presión sobre la construcción. El mantenimiento predictivo reducirá las reparaciones costosas e innecesarias. La optimización del diseño y los nuevos materiales impulsados por la IA reducirán el uso de materiales en la fabricación. Todos los sectores de la economía se verán afectados. La eliminación de las colisiones en la carretera, por ejemplo, reducirá la demanda de atención médica y talleres de reparación. Sin mencionar la reducción de la demanda de energía al reemplazar centros de llamadas completos con unas pocas GPU que zumban en una sala de datos a oscuras.
Un informe de enero de 2024 del Consejo de Lisboa señaló que, “incluso si las predicciones de que los centros de datos pronto representarán el 4% del consumo energético mundial se hacen realidad, la IA está teniendo un impacto importante en la reducción del 96% restante del consumo energético”.
El calor residual de los centros de datos podría aprovecharse, hasta cierto punto. Todos los gigavatios de energía que utilizan las GPU se convierten en calor, al igual que la energía que utilizan los propios sistemas de refrigeración. Sin embargo, existen tres desafíos a la hora de aprovecharlo. El primero es que el calor residual de los centros de datos solo alcanza los 40-50 °C, lo que está bien para la calefacción en invierno, pero daría lugar a eficiencias extremadamente bajas si se utilizara para impulsar enfriadores de absorción para refrigeración en verano.
El segundo es que los centros de datos más grandes no estarán ubicados cerca de ciudades con fuentes de demanda suficientemente grandes, en particular si se construyen cerca de centrales nucleares o proyectos renovables a gran escala. Y tercero, es poco probable que los desarrolladores de centros de datos toleren complejidad o limitaciones adicionales en lo que ya son proyectos tremendamente complejos. El calor residual de algunos centros de datos sin duda se utilizará para impulsar la cogeneración, o tal vez para usos innovadores como la fermentación de precisión, pero lo más probable es que la mayor parte se eche a la basura.
¿Podría la IA ser tan eficaz que en realidad frene el crecimiento de la demanda de servicios energéticos? Es dudoso. Cuanto más exitosa sea la IA, más probabilidades hay de que genere actividad económica adicional. En la mayoría de las áreas de eficiencia energética, las investigaciones muestran que el llamado efecto Jevons es marginal, ya que la recuperación absorbe entre un cuarto y un tercio de las mejoras. Pero en el caso de la IA, las reducciones drásticas en el uso y el costo de la energía podrían actuar como un poderoso acelerador, no solo de la adopción de la IA, sino también de la actividad económica en general. Ciertamente espero que así sea, por el bien del progreso humano.
Esto no tiene por qué ser malo para el clima. Después de todo, si la IA ayuda a adelantar un año la electrificación de la calefacción, el transporte y la industria, eso compensaría con creces cualquier impacto climático negativo de su propia demanda energética relativamente limitada.
5. No es fácil ser verde
A primera vista, no debería ser demasiado difícil sumar unas decenas de gigavatios de demanda adicional de energía limpia. Después de todo, los 45 GW de demanda adicional para 2030 solo equivaldrían a un tercio de la demanda de energía de las fundiciones de aluminio del mundo. En el Escenario de Transición Económica del New Energy Outlook 2024 de BloombergNEF, que refleja las políticas actuales, solo Estados Unidos suma 400 GW de nueva generación y 60 GW de baterías para 2030. El Escenario Net Zero sugiere el doble .
El desafío radica en la naturaleza de la demanda adicional: será muy localizada y deberá estar disponible las 24 horas del día, los 7 días de la semana. Además, deberá ser limpia.
Los hiperescaladores han asumido compromisos muy visibles para lograr emisiones netas cero (en el caso de Google, Microsoft y Meta para 2030, y Amazon (con sus operaciones logísticas de mayor consumo energético) para 2040). Esto los ha llevado a convertirse en algunos de los compradores corporativos de energía renovable más importantes del mundo. Los cuatro han firmado acuerdos de compra de energía (PPA) que cubren un total de más de 70 GW de capacidad (de los cuales alrededor de 40 GW están en Estados Unidos), lo que representa casi el 40% de todos los PPA corporativos. En mayo de este año, Microsoft firmó el mayor acuerdo de PPA corporativo de la historia con Brookfield Asset Management, por 10,5 GW de energía renovable que se construirán para 2030.
Si bien los cuatro hiperescaladores afirman que siguen comprometidos con sus objetivos de cero emisiones netas, el auge de la IA ha dificultado mucho el logro de esos objetivos. Su consumo de energía se ha más que duplicado desde 2020. Google ha visto aumentar sus emisiones de carbono en un 48% desde 2019 y Microsoft en un 29% desde 2020 .
Entre bastidores se está librando una batalla sobre cómo se pueden utilizar las compensaciones de energía renovable para lograr la neutralidad de carbono. Las normas actuales (consagradas en el Protocolo de Gases de Efecto Invernadero) se redactaron en 1990. Conceden el mismo crédito a una unidad de energía renovable generada en el mismo mercado eléctrico cuando está en funcionamiento un centro de datos que a una generada en un mercado diferente y en un momento diferente.
Estas reglas están en proceso de actualización: un nuevo texto propuesto para el Protocolo de Gases de Efecto Invernadero debería publicarse en 2025 y adoptarse antes de fines de 2026.
Hay mucho en juego. Google y Microsoft están presionando para que se ajuste estrictamente la generación a la demanda, por tiempo y ubicación. Han estado respaldando a la ONG Energy Tag, cuyo director ejecutivo, Killian Daly, argumenta: "El hecho básico es que se puede estar alimentado con energía solar toda la noche con la contabilidad actual, y eso es absurdo". Mientras tanto, Meta y Amazon respaldan a la rival Emissions First Partnership, que promueve reformas más marginales y Lee Taylor, director ejecutivo del proveedor de datos REsurety y partidario vocal, califica el enfoque de Energy Tag de "utópico" .
6. La fiebre del oro de la energía limpia y despachable
Cuando se combina la necesidad de una gran demanda nueva y concentrada de energía despachable con una presión extrema sobre las emisiones, es quizás inevitable que los hiperescaladores recurran a la energía nuclear.
En septiembre, Microsoft acaparó los titulares cuando reveló que había firmado un acuerdo con Constellation Energy para volver a poner en servicio Three Mile Island (escenario del peor accidente nuclear de Estados Unidos en 1979 ) y comprar su energía, en virtud de un acuerdo de precio fijo durante 20 años. Amazon Web Services ya había anunciado en marzo la adquisición del campus del centro de datos de Talen Energy en una central nuclear de Pensilvania. En octubre, Google reveló su propia apuesta nuclear, al anunciar un acuerdo para comprar siete reactores modulares pequeños de Kairos Power .
Es fácil ver el atractivo: la energía nuclear encierra la promesa de energía limpia ilimitada y despachable. En los últimos años, la energía nuclear ha experimentado una rehabilitación en todo el mundo. Incluso en Alemania, en abril de 2023 dos tercios de la población consideraban un error el cierre anticipado de sus plantas nucleares, y los demócrata-cristianos de centroderecha, que parecen dispuestos a ganar las elecciones de febrero próximo, han prometido estudiar la posibilidad de revertirlo .
Firmar acuerdos con plantas nucleares renovadas tiene sentido desde el punto de vista económico. El banco de inversiones estadounidense Jefferies calculó que Microsoft pagaría a Constellation entre 110 y 115 dólares por MWh por su energía, un precio caro, pero no escandaloso. Las plantas Candu recientemente renovadas de Ontario generarán hasta 75 dólares por MWh, un precio muy razonable.
Sin embargo, cuando se trata de construir nuevas plantas, los gigantes tecnológicos podrían llevarse una desagradable sorpresa. Parece haber un consenso en cuanto a que los llamados reactores modulares pequeños (SMR, por sus siglas en inglés) están a punto de llegar y que serán baratos y fáciles de construir. El sesgo optimista del sector tecnológico se ilustra perfectamente con el Instituto para el Progreso (IFP, por sus siglas en inglés), un grupo de expertos no partidista centrado en la política de innovación, que afirma que los SMR de agua ligera se pueden construir en seis años a un costo de energía de primera clase (FOAK, por sus siglas en inglés) de 109 dólares por MWh y un costo de energía de enésima clase (NOAK, por sus siglas en inglés) de 66 dólares por MWh .
El informe Pathways to Commercial Liftoff del Departamento de Energía de Estados Unidos sobre energía nuclear avanzada ofrece 120 dólares por MWh como el costo actual sin subsidios de la energía nuclear. Sin embargo, las nuevas centrales eléctricas a escala de GW en Estados Unidos o Europa están llegando a un precio de alrededor de 180 dólares por MWh (sin mencionar que se retrasan entre cinco y quince años) y es difícil entender por qué los SMR FOAK serían más baratos.
NuScale, que en su día fue la empresa estadounidense de SMR más cercana a la comercialización, comenzó prometiendo 58 dólares por MWh, pero tuvo que cancelar sus primeros proyectos cuando se revisó esa cifra hasta los 89 dólares por MWh. Pero eso fue después de tener en cuenta los 30 dólares por MWh de la Ley de Reducción de la Inflación y un subsidio directo de 1.400 millones de dólares , por lo que la cifra real, al menos cinco años antes de la puesta en servicio y en dinero de hoy, es de 140 dólares por MWh. Otros diseños de SMR podrían resultar más baratos, pero yo sería muy escéptico ante cualquier afirmación de que un SMR FOAK costaría menos de 180 dólares por MWh o un NOAK menos de 120 dólares por MWh antes de los subsidios. La aplicación de múltiples subsidios podría enmascarar los costos reales de las primeras plantas, pero cuando se busca un suministro de decenas de gigavatios, tarde o temprano hay que pagar la factura completa.
¿Qué pasa con la compra de energía de las centrales nucleares existentes? Eso también parece una decisión difícil, en particular a medida que aumenta la demanda de energía de la economía en general, impulsada por la demanda de vehículos eléctricos, calefacción y la electrificación de la industria. ¿Cómo pueden los comisionados de servicios públicos y los operadores del sistema energético conciliar la pérdida de gigavatios de energía limpia con sus responsabilidades hacia los consumidores y los empleadores? En octubre, la Comisión Federal Reguladora de Energía (FERC) rechazó el acuerdo de Amazon con Talen Energy para comprar 180 MW adicionales para el complejo de centros de datos de Susquehanna, citando la preocupación por las facturas de energía y la confiabilidad .
Si parece que la fisión nuclear no es la respuesta para su centro de datos de IA de miles de millones de dólares, siempre está la fusión. El año pasado, Microsoft firmó un acuerdo de compra con la empresa emergente de fusión Helion, en el que el director ejecutivo de OpenAI, Sam Altman, ha realizado una inversión de 375 millones de dólares, que promete entregar su primera planta de energía para 2028. Vinod Khosla está convencido , y seré el primero en celebrarlo si tiene razón. Pero me resulta difícil no recordar el PPA de 2009 de PG&E para 200 MW de energía de la empresa solar espacial Solaren para 2016. Justo a tiempo, una empresa emergente llamada Lumen Orbit ha recaudado 11 millones de dólares con la promesa de construir centros de datos alimentados con energía solar en el espacio, supuestamente con el interés de más de 200 proveedores de capital de riesgo , a pesar de que sus estimaciones de costos no resisten el más mínimo escrutinio .
Son las energías renovables, estúpido
Entonces, si es poco probable que los nuevos centros de datos funcionen con SMR, fusión o energía solar espacial durante las próximas décadas, ¿con qué se alimentarán?
En su afán por liderar la IA, los titanes de la tecnología podrían simplemente optar por el gas natural. Cuando Elon Musk se apresuró a poner en marcha el supercúmulo de x.AI en Memphis en un tiempo récord, trajo 14 generadores móviles alimentados con gas natural , cada uno de ellos generando 2,5 MW. Parece que no requieren un permiso de calidad del aire, siempre y cuando no permanezcan en el mismo lugar durante más de 364 días. En este caso, se espera que una nueva subestación de 150 MW esté terminada a finales de año, pero Tennessee no tiene un estándar de cartera de energías renovables ni un precio del carbono, por lo que es fácil ver cómo el proyecto podría impulsar el uso de gas o incluso de carbón.
Tanto Exxon como Chevron están planeando construir plantas alimentadas a gas para alimentar directamente los centros de datos de IA, evitando la necesidad de conexiones a la red. Exxon promete capturar y secuestrar más del 90% de las emisiones resultantes, pero la historia de la captura y almacenamiento de carbono posterior a la combustión significa que tales afirmaciones deben tomarse con mucha cautela . Y si el CO2 resultante se utiliza para la recuperación mejorada de petróleo, las emisiones netas serían enormes.
A su debido tiempo, espero que los gigantes tecnológicos aprendan la misma lección que aprendieron las empresas de servicios públicos: depender de un suministro de energía basado exclusivamente en combustibles fósiles resultará más caro que uno que combine energías renovables baratas y baterías con un poco de gas. Resulta que hay una razón por la que el 91% de toda la nueva capacidad energética agregada en todo el mundo en 2023 fue eólica y solar, con solo el 6% de gas o carbón y el 3% de energía nuclear .
En Portugal, Start Campus Sines está construyendo un complejo de centros de datos de 1,2 GW (que se espera que sea el más grande de Europa cuando esté completamente operativo en 2030) alimentado por energía eólica y solar, con baterías y generadores de respaldo para uso ocasional. Si su objetivo es energía 100% limpia, existen otras opciones de respaldo, incluido el gas natural renovable, más baterías, almacenamiento de aire líquido o tal vez hidrógeno limpio o uno de sus derivados.
Tanto la energía geotérmica mejorada (basada en el fracking) como la geotérmica de circuito cerrado parecen muy atractivas debido a su capacidad de proporcionar energía limpia las 24 horas del día, los 7 días de la semana, con las complejidades de la energía nuclear. Google y Meta tienen acuerdos de compra de energía con Fervo Energy y Sage Geosystems respectivamente . Otros enfoques más radicales, como la perforación con ondas milimétricas que propone Quaise, una filial del MIT, enfrentan enormes desafíos tecnológicos y parecen estar a décadas de su comercialización, a pesar de la promesa de Quaise de proporcionar la primera energía para 2026 .
Siempre existe la buena y vieja energía hidroeléctrica. Las redes con gran cantidad de ella –como Escandinavia y Brasil– siempre han sido buenos lugares para ubicar industrias que dependen de energía limpia barata las 24 horas del día, los 7 días de la semana, y serán atractivas para los operadores de centros de datos. Pero es difícil y lento construir nuevas plantas hidroeléctricas, y monopolizar la producción de las existentes no será más popular que en el caso de la energía nuclear.
Conclusión
Permítanme cerrar con algunas predicciones sobre cómo se desarrollará la gran fiebre del oro en el sector de los centros de datos.
Al final, los gigantes tecnológicos descubrirán que la mejor manera de alimentar los centros de datos de IA es a la manera tradicional, construyendo las mismas tecnologías de generación que resulten más rentables para otros usuarios, conectándolos a una red sólida y resistente y trabajando con las comunidades locales. En otras palabras, más de lo que los mejores de ellos ya están haciendo.
Por ejemplo, puede parecer fácil ubicar las centrales eléctricas junto con los centros de datos, pero no lo será. Eso multiplicaría la complejidad de construir el centro de datos por la complejidad de construir y operar la planta. Esto sería particularmente riesgoso si la planta en cuestión es un diseño nuclear innovador y no probado. Si se construye la planta fuera de la red, lo que se ahorra en tarifas de transmisión se gasta en lidiar con cada desajuste potencial entre la demanda y la oferta. Y si se permanece conectado a la red, no se ha logrado nada con la ubicación conjunta, ya que se deben cumplir todas las reglas establecidas por el operador y el regulador de la red.
Al igual que sucede con otras industrias que corren el riesgo de imponer externalidades significativas a quienes las rodean, los propietarios de centros de datos de IA reducirán los costos y los riesgos no centralizando los activos y construyendo un muro a su alrededor, sino trabajando con otras partes interesadas. Quién sabe, si se involucran, los hiperescaladores podrían incluso convertirse en contribuyentes populares al desarrollo de una red local asequible, resiliente y ecológica.
¿Cómo se construye un centro de datos de IA que, como los Gigantes Verdes que propuse en 2021, sea beneficioso para la comunidad local? ¿Cómo se abordan sus impactos en el suministro de agua, la calidad del aire y las habilidades locales, de modo que no haya que enfrentarse a manifestantes como los que se oponen a la construcción de centros de datos adicionales en el norte de Virginia o de nuevos en Santiago de Chile , Memphis, Tennessee y Hertfordshire en el Reino Unido ?
No tiene sentido que un centro de datos y la empresa de servicios públicos local inviertan por separado en recursos de respaldo de emergencia. El propietario del centro de datos puede querer un respaldo local para asegurarse de que pueda resistir cortes de la red; la empresa de servicios públicos puede querer un respaldo central para resistir períodos de baja provisión de energía eólica o solar, o puede necesitar agregar capacidad para satisfacer la creciente demanda. En 2016, Microsoft llegó a un acuerdo con Black Hills Energy (anteriormente Cheyenne Light, Fuel and Power Co.) que le proporcionó energía a menor costo a cambio de usar sus generadores de respaldo como un recurso energético para la red según fuera necesario, eliminando la necesidad de que Black Hills Energy construya una planta adicional . Este tipo de acuerdo debe convertirse en la norma, no en la excepción.
El Instituto de Investigación de Energía Eléctrica de Estados Unidos acaba de lanzar la Iniciativa DCFlex , cuyo objetivo es explorar cómo los centros de datos pueden respaldar y estabilizar la red. Por ejemplo, cuando vean cuánto cuesta trabajar 24 horas al día, 7 días a la semana a plena potencia, tal vez los propietarios de los centros de datos vean un beneficio en proporcionar cierta capacidad de respuesta a la demanda o en modificar sus tasas de aumento y disminución de la capacidad (que de otro modo podrían ser temibles).
En lo que se refiere a las nuevas tecnologías (ya sean reactores modulares pequeños, fusión, nuevas energías renovables o líneas de transmisión superconductoras), es una bendición contar con algunos actores con mucho dinero, tecnológicamente avanzados y tolerantes al riesgo que generen demanda, algo que durante décadas ha faltado en los mercados energéticos del mundo desarrollado de bajo crecimiento. Sin embargo, en lugar de centrarse egoístamente en financiarlos para su propio uso, los hiperescaladores deberían ayudar a garantizar su desarrollo y despliegue de una manera optimizada para la red. Esto no sólo sería más eficiente para la economía en general, sino que también podría ayudarlos a asegurar su licencia social para operar, durante lo que será un período de extrema turbulencia tecnológica y social.
El parlamentario británico Tony Benn sabía un par de cosas sobre el poder. Si queremos que nuestros líderes rindan cuentas, sugirió, deberíamos plantearnos las cinco preguntas siguientes :
“¿Qué poder tienes? ¿Cómo lo conseguiste? ¿En beneficio de quién lo ejerces? ¿Ante quién eres responsable? ¿Y cómo podemos deshacernos de ti?”
Cuando se trata de centros de datos, ciertamente tenía razón.
Por último, si le preocupa que los humanos estén a punto de ser reemplazados por máquinas, relájese. Después de toda esta charla sobre centros de datos de gigavatios, vale la pena recordar una estadística clave: nuestros cerebros funcionan con alrededor de 20 W. Visto así, todavía superamos a las máquinas en alrededor de ocho órdenes de magnitud. ¡La humanidad aún no ha terminado!
Fuente: Michael Liebreich es el fundador de NEF y colaborador principal de BloombergNEF.
COMENTARIOS