
Es una cifra tan grande que cuesta imaginarla. A nivel mundial, de aquí a 2029 se gastarán alrededor de US$3 billones en centros de datos para respaldar la inteligencia artificial.
Esta estimación procede del banco de inversión Morgan Stanley, que añade que aproximadamente la mitad de esa suma se destinará a costes de construcción y la otra mitad al costoso hardware que sustenta la revolución de la inteligencia artificial (IA).
Para poner esa cifra en perspectiva, equivale aproximadamente a lo que valía toda la economía francesa en 2024.
Solo en Reino Unido, se estima que se construirán otros 100 centros de datos en los próximos años para satisfacer la demanda de procesamiento de IA. Algunos de ellos se construirán para Microsoft, que a principios de este mes anunció una inversión de US$30.000 millones en este sector británico.
¿En qué se diferencian los centros de datos de IA de los edificios tradicionales que contienen filas de servidores informáticos que almacenan nuestras fotos personales, cuentas de redes sociales y solicitudes de trabajo?
Y, quizás lo más importante, ¿vale la pena este enorme gasto?
Los centros de datos llevan años creciendo en tamaño. La industria tecnológica acuñó el término "hiperescala" para describir los sitios donde la demanda de energía alcanza decenas de megavatios, antes de que aparecieran los gigavatios, mil veces mayores que los megavatios.
Pero la IA ha potenciado enormemente este juego.

La mayoría de los modelos de IA dependen de costosos chips informáticos de Nvidia para procesar tareas.
Estos chips vienen en grandes armarios que cuestan alrededor de US$4 millones cada uno. Y estos armarios son la clave de por qué los centros de datos de IA son diferentes.
Los grandes modelos de lenguaje (LLM) que entrenan el software de IA tienen que descomponer el lenguaje en cada uno de los pequeños elementos de significado posibles. Eso solo es posible con una red de ordenadores que trabajen al unísono y muy cerca unos de otros.
¿Por qué es tan importante la proximidad? Cada metro de distancia entre dos chips añade un nanosegundo —una milmillonésima parte de un segundo— al tiempo de procesamiento.
Puede que no parezca mucho tiempo, pero cuando un almacén lleno de ordenadores está en pleno funcionamiento, estos retrasos microscópicos se acumulan y diluyen el rendimiento necesario para la IA.
Los armarios de procesamiento de IA están apretados entre sí para eliminar este elemento de latencia y crear lo que el sector tecnológico denomina procesamiento paralelo, que funciona como un ordenador enorme. Todo ello se traduce en densidad, una palabra mágica en los círculos de construcción de IA.
La densidad elimina los cuellos de botella de procesamiento que se producen en los centros de datos normales al trabajar con procesadores situados a varios metros de distancia.

Sin embargo, esas densas filas de armarios consumen gigavatios de energía y el entrenamiento de LLM produce picos en ese apetito por la electricidad.
Estos picos equivalen a miles de hogares encendiendo y apagando teteras eléctricas al unísono cada pocos segundos.
Este tipo de demanda irregular en una red local debe gestionarse con cuidado.
Daniel Bizo, de la consultora de ingeniería informática The Uptime Institute, se dedica a analizar centros de datos.
"Los centros de datos normales son un zumbido constante de fondo en comparación con la demanda que supone para la red la carga de trabajo de la IA", explica.
Al igual que esas teteras sincronizadas, los picos repentinos de la IA presentan lo que el Bizo denomina un problema singular.
"Una carga de trabajo singular a esta escala es algo inédito", afirma el consultor. "Es un reto de ingeniería tan extremo que es como el programa Apolo".
Los operadores de centros de datos están sorteando el problema energético de diversas maneras.
En declaraciones a la BBC, el director ejecutivo de Nvidia, Jensen Huang, dijo a principios de este mes que en Reino Unido esperaba que, a corto plazo, se pudieran utilizar más turbinas de gas "fuera de la red, para no sobrecargar a los usuarios de la red".
Afirmó que la propia IA diseñaría mejores turbinas de gas, paneles solares, turbinas eólicas y energía de fusión para producir energía sostenible más rentable.
Microsoft está invirtiendo miles de millones de dólares en proyectos energéticos, entre ellos un acuerdo con Constellation Energy para volver a producir energía en la central nuclear cerrada de Three Mile Island, en Pensilvania, EE.UU.
Google, propiedad de Alphabet, también está invirtiendo en energía nuclear como parte de una estrategia para funcionar con energía libre de carbono para 2030.
Por su parte, Amazon Web Services (AWS), que forma parte del gigante minorista Amazon, afirma que ya es el mayor comprador corporativo de energía renovable del mundo.

El sector de los centros de datos es muy consciente de que los legisladores están atentos a los inconvenientes de las fábricas de IA, cuyo intenso consumo energético puede tener un impacto en las infraestructuras locales y el medio ambiente.
Uno de estos impactos medioambientales es el elevado consumo de agua para refrigerar los chips.
En el estado de Virginia, EE. UU., donde se concentra una creciente proliferación de centros de datos que mantienen en funcionamiento a gigantes tecnológicos como Amazon y Google, se está estudiando un proyecto de ley que vincula la aprobación de nuevas instalaciones a las cifras de consumo de agua.
Mientras tanto, un proyecto de fábrica de IA en el norte de Lincolnshire, Reino Unido, ha encontrado la oposición de Anglian Water, responsable del suministro de agua en la zona donde se pretende construir la planta.
Anglian Water señala que no está obligada a suministrar agua para uso no doméstico y sugiere utilizar agua reciclada de la etapa final del tratamiento de vertidos como refrigerante en lugar de agua potable.
¿Una burbuja?
Teniendo en cuenta los problemas prácticos y los enormes costes a los que se enfrentan los centros de datos de IA, vale preguntarse: ¿es todo este movimiento una gran burbuja?
Un ponente en una reciente conferencia sobre centros de datos acuñó el término "bragawatts" (algo así como "fanfarrovatios") para describir cómo la industria está exagerando la magnitud de los sitios de IA propuestos.
Zahl Limbuwala es especialista en centros de datos en la consultora de inversiones tecnológicas DTCP y reconoce que existen grandes interrogantes en torno al futuro del gasto en centros de datos de IA.
"La trayectoria actual es muy difícil de creer. Sin duda, se ha hablado mucho al respecto. Pero la inversión tiene que generar beneficios o el mercado se corregirá por sí mismo", dijo.
Teniendo en cuenta estas advertencias, sigue creyendo que la IA merece un lugar especial en términos de inversión: "La IA tendrá más impacto que las tecnologías anteriores, incluida internet. Por lo tanto, es factible que necesitemos todos esos gigavatios".
Señala que, al margen de las fanfarronadas, los centros de datos de IA "son los bienes inmuebles del mundo tecnológico".
Las burbujas tecnológicas especulativas, como el auge de las puntocom en la década de 1990, carecían de una base física. Los centros de datos de IA son muy sólidos. Pero el auge del gasto que los sustenta no puede durar eternamente.

Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
- Por qué los enormes centros de datos que permiten nuestra vida online requieren una enorme cantidad de agua (y el impacto que están generando)
- Cómo tus clics están transformando internet en algo diferente a lo que conocemos
- Cómo China usó a empresas como Apple para superar a EE.UU. y convertirse en líder mundial de la tecnología
!function(s,e,n,c,r){if(r=s._ns_bbcws=s._ns_bbcws||r,s[r]||(s[r+"_d"]=s[r+"_d"]||[],s[r]=function(){s[r+"_d"].push(arguments)},s[r].sources=[]),c&&s[r].sources.indexOf(c)<0){var t=e.createElement(n);t.async=1,t.src=c;var a=e.getElementsByTagName(n)[0];a.parentNode.insertBefore(t,a),s[r].sources.push(c)}}(window,document,"script","https://news.files.bbci.co.uk/ws/partner-analytics/js/fullTracker.min.js","s_bbcws");s_bbcws('syndSource','ISAPI');s_bbcws('orgUnit','ws');s_bbcws('platform','partner');s_bbcws('partner','acento.com.do');s_bbcws('producer','mundo');s_bbcws('language','es');s_bbcws('setStory', {'origin': 'optimo','guid': 'cp3v9gqw72no','assetType': 'article','pageCounter': 'mundo.articles.cp3v9gqw72no.page','title': '"Un reto de ingeniería extremo": la extraordinaria inversión de las grandes empresas de IA en centros de datos a "hiperescala"','author': 'Michael Dempsey – Reportero de tecnología de la BBC','published': '2025-09-29T10:28:09.518Z','updated': '2025-09-29T10:28:09.518Z'});s_bbcws('track','pageView');
Compartir esta nota