El centro de datos que refrigeraba sin problemas 200 kilovatios de infraestructura de servidores tradicional se enfrenta ahora a un nuevo desafío: el equipo de TI quiere implementar un clúster de entrenamiento de IA. Cuatro racks de GPU NVIDIA H100. Las especificaciones indican un consumo de 44 kilovatios solo para esos cuatro racks, más de lo que consumían algunas salas de servidores completas hace cinco años. El responsable de las instalaciones revisa los cálculos de capacidad de refrigeración y da malas noticias: la infraestructura de refrigeración por aire existente no puede soportar esta implementación. No sin importantes mejoras. No sin refrigeración líquida. No sin cambios radicales en la gestión térmica del centro.
Este escenario se está repitiendo en centros de datos de todo el mundo. El crecimiento exponencial de la inteligencia artificial —desde grandes modelos de lenguaje como ChatGPT hasta sistemas de visión artificial y aplicaciones de IA generativa— exige una potencia de cómputo que la infraestructura tradicional de los centros de datos nunca fue diseñada para proporcionar. Los chips que impulsan las cargas de trabajo de IA generan calor a niveles que superan la capacidad de los sistemas de refrigeración convencionales. Las instalaciones diseñadas para racks de 5 a 10 kW ahora se enfrentan a equipos que requieren entre 40 y más de 100 kW por rack, con densidades que se acercan a los 120 kW e incluso más.
La IA no se limita a añadir más servidores. Está transformando radicalmente las capacidades que deben tener los centros de datos, y los sistemas de refrigeración representan el punto de partida de esta transformación.
La revolución de la densidad de potencia de la IA
Infraestructura tradicional frente a infraestructura de IA
Los centros de datos empresariales tradicionales albergan la computación de propósito general: servidores web, bases de datos, sistemas de correo electrónico y aplicaciones empresariales. Estas cargas de trabajo se ejecutan en servidores con CPU que consumen una energía moderada y relativamente constante. Un rack empresarial típico puede consumir entre 5 y 10 kilovatios, con picos de hasta 15 kW. Este nivel de potencia funciona bien con la refrigeración tradicional por suelo radiante mediante unidades de aire acondicionado para salas de servidores (CRAC).
La IA lo cambia todo. Las cargas de trabajo de IA requieren aceleradores de hardware especializados, principalmente unidades de procesamiento gráfico (GPU), pero también unidades de procesamiento tensorial (TPU) y otros procesadores específicos para IA. Estos chips destacan en las operaciones matemáticas paralelas que requiere la IA, pero consumen cantidades extraordinarias de energía. Una sola GPU NVIDIA H100 consume 700 vatios. Los chips B200 más recientes alcanzan los 1000 W, y las configuraciones GB200 llegan a los 1200 W por GPU.
Un rack de entrenamiento de IA con 8 GPU y la infraestructura de soporte necesaria alcanza fácilmente los 30-50 kW. Las configuraciones densas superan los 100 kW por rack. Según un estudio de Dell'Oro Group, la densidad de potencia promedio de los racks aumentará de 15 kW actualmente a 60-120 kW para cargas de trabajo de IA en un futuro próximo.
¿Por qué la IA genera tanta controversia?
La naturaleza fundamental del entrenamiento de IA explica la generación de calor. Entrenar grandes modelos de lenguaje o sistemas de visión artificial requiere procesar conjuntos de datos masivos mediante redes neuronales con miles de millones o billones de parámetros. Las GPU funcionan a una utilización cercana a 10⁰¹TP¹²T durante periodos prolongados: días, semanas o meses para modelos grandes. Esta operación sostenida a máxima carga difiere drásticamente de la utilización típica de un servidor, que oscila entre 20 y 40¹TP¹²T.
Las GPU modernas integran una densidad de transistores sin precedentes en silicio compacto. Las arquitecturas más recientes de NVIDIA integran decenas de miles de millones de transistores que operan a altas frecuencias. La física dicta que la corriente eléctrica que atraviesa la resistencia genera calor, y la enorme capacidad de computación de las GPU modernas produce una disipación térmica que supera con creces la de los procesadores tradicionales.
El Uptime Institute señala que los centros de datos tradicionales se diseñaron para 5-10 kW por rack. Los entornos de IA requieren un mínimo de 30 kW, frecuentemente entre 50 y 80 kW, y las implementaciones más avanzadas superan los 100 kW. Esto representa un aumento de entre 10 y 20 veces en los requisitos de refrigeración.
La cascada de desafíos de infraestructura
La alta densidad de potencia genera problemas acumulativos. Más potencia implica más calor que disipar. Una mayor refrigeración requiere un mayor consumo energético. Según la Agencia Internacional de la Energía, el procesamiento representa 401 TP12 T del consumo energético de los centros de datos, y la refrigeración otros 401 TP12 T. Las cargas de trabajo de IA aumentan ambos simultáneamente.
La eficiencia del espacio se ve afectada. Una instalación diseñada para 50 racks tradicionales podría albergar solo entre 10 y 15 racks de IA debido a las limitaciones de energía y refrigeración. La capacidad total de computación aumenta, pero el número de racks disminuye.
La infraestructura eléctrica requiere mejoras. Los sistemas de distribución eléctrica, la capacidad de los sistemas de alimentación ininterrumpida (SAI), los generadores de respaldo y las conexiones de servicios públicos necesitan ampliarse para soportar las cargas de trabajo de la IA. Muchas instalaciones descubren que la incorporación de capacidades de IA exige reformas fundamentales de la infraestructura eléctrica.
¿Por qué la refrigeración tradicional no puede seguir el ritmo?
El problema de la física
La refrigeración por aire funciona haciendo circular grandes volúmenes de aire sobre superficies calientes, lo que permite la transferencia de calor de los componentes al aire, para luego expulsar el aire caliente y reemplazarlo con aire frío. Este método tiene limitaciones físicas.
El aire tiene una capacidad térmica y una conductividad relativamente bajas. Mover suficiente aire para disipar entre 40 y 50 kW de un solo rack requiere caudales de aire enormes, muy superiores a los que proporcionan las unidades CRAC tradicionales y la distribución por suelo radiante. La velocidad del aire necesaria genera ruido, aumenta las caídas de presión y, aun así, puede que no proporcione una refrigeración adecuada a todos los componentes.
Las diferencias de temperatura son importantes. Para una refrigeración por aire eficaz, se requiere aire frío considerablemente más frío que la temperatura deseada de los componentes. Sin embargo, reducir demasiado la temperatura del aire de suministro supone un desperdicio de energía y aumenta el riesgo de condensación. El margen práctico para las diferencias de temperatura en la refrigeración por aire limita la capacidad de disipación de calor.
La restricción espacial
Los racks de IA de alta densidad, que consumen entre 50 y 100 kW, requieren una infraestructura de refrigeración exponencialmente mayor que los equipos tradicionales. Una instalación podría implementar una unidad CRAC por cada 10-15 racks tradicionales. Los racks de IA podrían requerir refrigeración dedicada por rack o por pequeño grupo de racks. Este equipo de refrigeración ocupa un valioso espacio, reduciendo la capacidad total de la instalación.
El confinamiento de pasillos calientes y otras técnicas de gestión del flujo de aire ayudan, pero no solucionan de raíz el problema de la densidad. Incluso un flujo de aire perfectamente gestionado no puede superar las limitaciones de transferencia térmica del aire como medio de refrigeración cuando se trata de racks de 100 kW.
La crisis de eficiencia energética
Las instalaciones que tienen dificultades para refrigerar por aire equipos de IA de alta densidad suelen sobredimensionar la refrigeración por seguridad, haciendo funcionar los ventiladores a máxima velocidad y reduciendo la temperatura del aire de suministro más de lo necesario. Este enfoque de fuerza bruta aumenta drásticamente el consumo de energía.
Según un estudio de T5 Data Centers, las instalaciones que soportan cargas de trabajo de IA con densidades de potencia superiores a 700 vatios por pie cuadrado se enfrentan a graves problemas de eficiencia con la refrigeración por aire tradicional. La eficacia del uso de la energía (PUE) disminuye a medida que los sistemas de refrigeración trabajan más, y los costes totales de la instalación se disparan.
El imperativo de la refrigeración líquida
La refrigeración líquida, antes considerada una tecnología exótica reservada para la supercomputación, se está convirtiendo rápidamente en un requisito indispensable para los centros de datos de IA.
Por qué funciona Liquid
El agua y los refrigerantes especializados poseen propiedades térmicas muy superiores a las del aire. La refrigeración líquida puede ser 3000 veces más eficiente que el aire para disipar el calor. Esta eficiencia permite gestionar las altas cargas térmicas que genera el hardware de IA.
Han surgido varios enfoques de refrigeración líquida:
Refrigeración directa al chip (placa fría) Hace circular líquido a través de placas frías montadas directamente sobre las GPU y otros componentes de alta temperatura. El calor se transfiere del chip a la placa fría y de ahí al líquido, que lo disipa para su posterior eliminación. Este método específico permite controlar las temperaturas extremas de los componentes y, al mismo tiempo, mantener temperaturas ambiente más elevadas para otros equipos.
Intercambiadores de calor de la puerta trasera Se instalan en la parte posterior de los racks de servidores y utilizan un sistema de intercambio de calor líquido-aire para enfriar el aire de escape antes de que entre en la sala. Esta solución permite una modernización más sencilla de la infraestructura existente que otros métodos de refrigeración líquida, si bien ofrece ventajas parciales.
Enfriamiento por inmersión Sumerge servidores completos en un fluido dieléctrico que no daña los componentes electrónicos. El calor se transfiere directamente de todos los componentes al fluido circundante. Este método ofrece una eficiencia de refrigeración máxima y permite una densidad sin precedentes, pero requiere servidores e infraestructura diseñados específicamente para este fin.
El cambio del mercado
Según el Informe sobre el Estado de los Centros de Datos de AFCOM de 2024, solo 171.000 encuestados utilizan actualmente refrigeración líquida. Sin embargo, otros 321.000 planean adoptarla en los próximos 12 a 24 meses. Esto representa una transición fundamental del mercado impulsada por las exigencias de las cargas de trabajo de IA.
Los principales hiperescaladores y proveedores de servicios en la nube lideran la adopción de esta tecnología. Los pods TPU con refrigeración líquida de Google logran una mejora de cuatro veces en la densidad de cómputo. Microsoft anunció que todos sus nuevos centros de datos incorporarán sistemas de refrigeración líquida. Meta, Amazon y otros grandes operadores están implementando la refrigeración líquida a gran escala.
EdgeCore Digital Infrastructure informa que la refrigeración líquida directa al chip ha pasado de aplicaciones HPC especializadas a la producción en serie. “Lo que parecía ambicioso en 2023 es la especificación deseada para soportar cargas de trabajo de IA en 2025 y se convertirá en la especificación mínima para servidores GPU aún más densos en 2026”, señala Tom Traugott, vicepresidente sénior de Tecnologías Emergentes.
Desafíos de implementación
La refrigeración líquida requiere conocimientos especializados distintos a los de los sistemas de refrigeración por aire tradicionales. Las instalaciones necesitan:
- Infraestructura de distribución de líquidos (tuberías, colectores, bombas)
- Sistemas de rechazo de calor (torres de refrigeración, enfriadores secos, enfriadores)
- Detección y contención de fugas
- Procedimientos de mantenimiento especializados
- Diferentes sistemas de monitoreo y control
Estos requisitos representan una inversión de capital significativa y cambios operativos. Muchas instalaciones se enfrentan a la pregunta: ¿adaptar la infraestructura existente para la refrigeración líquida o construir nuevos centros de datos de IA diseñados específicamente para este fin?
Lo que los centros de datos deben hacer ahora
Evaluación y planificación
Las instalaciones deben comenzar por evaluar los requisitos de carga de trabajo de IA actuales y proyectados. ¿Cuánta capacidad de GPU necesita la organización en los próximos 3 a 5 años? ¿Qué densidades de potencia requerirán esas implementaciones? ¿Puede la infraestructura existente soportar las cargas de trabajo de IA o se requieren actualizaciones fundamentales?
Calcule la diferencia entre las capacidades actuales y los requisitos futuros. Una instalación con una densidad media de racks de 10 kW y una capacidad total de 1 MW podría soportar 100 racks tradicionales. Ese mismo 1 MW podría soportar solo entre 15 y 20 racks de IA de 50 kW cada uno. La potencia está disponible, pero la refrigeración, el espacio y la distribución eléctrica podrían no ser suficientes.
Evaluación de infraestructura
Auditar los sistemas existentes:
Capacidad de refrigeración¿Pueden las unidades CRAC/CRAH actuales soportar cualquier implementación de IA? ¿Cuál es la densidad máxima de racks que admite el sistema de refrigeración existente?
Distribución eléctrica¿Los sistemas de distribución de energía admiten racks de alta densidad? ¿Los circuitos, las PDU y los transformadores están dimensionados para cargas concentradas?
Espacio y distribución¿Puede la instalación albergar infraestructura de refrigeración líquida? ¿Hay espacio para unidades de distribución de refrigeración, colectores de líquido y equipos de disipación de calor?
Monitoreo y controles¿Los sistemas existentes proporcionan una monitorización lo suficientemente granular para despliegues de alta densidad?
Selección de tecnología
Seleccione las tecnologías de refrigeración adecuadas en función de la escala y la densidad de despliegue:
Híbrido aire/líquidoPara implementaciones de IA moderadas (racks de 20-40 kW), podría ser suficiente combinar una refrigeración por aire mejorada con tecnologías de asistencia líquida como intercambiadores de calor en la puerta trasera.
Directo al chipPara racks de 40 a 80 kW, es necesario el enfriamiento líquido directo al chip. Este método disipa el calor de la GPU y permite la refrigeración por aire de los demás componentes.
Inmersión totalPara despliegues de máxima densidad (80-120 kW+) o con limitaciones de espacio, la refrigeración por inmersión ofrece la mayor eficiencia, pero requiere los cambios de infraestructura más significativos.
Implementación por fases
La mayoría de las instalaciones no pueden modernizar de inmediato una infraestructura completa de refrigeración líquida. Un enfoque por fases permite dar soporte a las cargas de trabajo de IA mientras se planifican actualizaciones de mayor envergadura.
Fase 1: Evaluación y prueba piloto
- Implementar pequeñas instalaciones piloto de IA utilizando refrigeración líquida portátil o enfoques híbridos.
- Validar el rendimiento de la refrigeración e identificar problemas
- Desarrollar experiencia organizativa
Fase 2: Mejoras de zona
- Designar zonas específicas de las instalaciones para cargas de trabajo de IA
- Instalar infraestructura de refrigeración líquida en esas zonas
- Mantenga la refrigeración por aire tradicional en otros lugares
Fase 3: Evolución de toda la instalación
- Ampliar la capacidad de refrigeración líquida a medida que aumentan las cargas de trabajo
- Renueva los equipos de refrigeración por aire antiguos con sistemas híbridos o líquidos.
- Construir nuevos centros de datos optimizados con IA para grandes expansiones.
Selección de socios
La mayoría de las organizaciones carecen de experiencia interna en el diseño e implementación de sistemas de refrigeración líquida. Por lo tanto, es fundamental seleccionar socios con experiencia comprobada. Busque:
- Demostración de despliegues de refrigeración líquida a gran escala
- Experiencia específica con cargas de trabajo de IA/HPC
- Capacidad para brindar soporte tanto a obra nueva como a rehabilitaciones.
- Capacidades de mantenimiento y soporte continuos
- Comprensión de los requisitos tanto de TI como de las instalaciones
Argumentos comerciales para actuar ahora
Necesidad competitiva
Las organizaciones que postergan las inversiones en infraestructura de refrigeración para IA corren el riesgo de quedar en desventaja competitiva. Las empresas que utilizan la IA para la transformación de sus negocios necesitan una infraestructura que soporte esas cargas de trabajo. Las instalaciones que no pueden soportar clústeres de entrenamiento de IA o implementaciones de inferencia limitan la estrategia de IA de su organización.
Gestión de costes
Adaptar un sistema de refrigeración líquida a instalaciones existentes cuesta mucho más que integrarlo en el diseño de obra nueva. Las instalaciones que planeen reformas o ampliaciones importantes deberían incorporar la refrigeración líquida desde el principio, aunque no sea una necesidad inmediata.
Los costes operativos favorecen la refrigeración líquida a altas densidades. Si bien los costes de inversión superan a los de la refrigeración por aire, las drásticas mejoras en la eficiencia a densidades de rack superiores a 50 kW permiten una rápida amortización gracias a la reducción del consumo energético.
Prepararse para el futuro
La evolución del hardware de IA no muestra signos de desaceleración. Cada nueva generación de GPU aumenta el consumo de energía y la generación de calor. Los chips B200 de 1000 W actuales serán reemplazados por diseños aún más potentes. Las instalaciones que no pueden refrigerar el hardware de IA de la generación actual se enfrentarán a desafíos aún mayores con los equipos de próxima generación.
Invertir ahora en infraestructura de refrigeración líquida permite a las instalaciones soportar futuras cargas de trabajo de IA sin necesidad de repetidas revisiones importantes.
Mirando hacia el futuro: El centro de datos nativo de IA
El sector de los centros de datos se está bifurcando. Los centros de datos empresariales tradicionales siguen dando servicio a cargas de trabajo convencionales con refrigeración por aire. Mientras tanto, está surgiendo una nueva generación de centros de datos nativos de IA, diseñados específicamente desde cero para implementaciones de GPU de alta densidad.
Estas instalaciones cuentan con:
- Densidades de rack de 80-120+ kW como estándar
- Infraestructura de refrigeración líquida en toda la red
- Distribución de energía diseñada para cargas concentradas
- Proximidad a las principales fuentes de energía y centros de red
- Diseños modulares que permiten un despliegue rápido
Las organizaciones deben evaluar conjuntamente sus estrategias de IA y sus necesidades de infraestructura. Para algunas, la colocación en centros de datos de IA especializados resulta más conveniente que la modernización de las instalaciones existentes. Para otras, los enfoques híbridos que combinan la refrigeración por aire para cargas de trabajo tradicionales y la refrigeración líquida para cargas de trabajo de IA ofrecen el mejor equilibrio.
Conclusión: La transformación del enfriamiento
Las cargas de trabajo de IA no representan un simple aumento en los requisitos de los centros de datos. Constituyen un cambio fundamental que exige capacidades de infraestructura que la mayoría de las instalaciones no poseen actualmente. Los sistemas tradicionales de refrigeración por aire, que han funcionado bien en los centros de datos durante décadas, simplemente no pueden gestionar la densidad de calor que genera el hardware de IA moderno.
La cuestión no es si sus instalaciones necesitan abordar los desafíos de refrigeración de la IA, sino cuándo y cómo. Las organizaciones que implementan cargas de trabajo de IA hoy se enfrentan a limitaciones de refrigeración inmediatas. Aquellas que planean iniciativas de IA en los próximos 12 a 24 meses deben actuar ahora para garantizar la preparación de la infraestructura.
La buena noticia es que existen tecnologías de refrigeración líquida probadas que se están implementando con éxito en todo el mundo. Se cuenta con la experiencia necesaria para diseñar, implementar y operar estos sistemas. El análisis de viabilidad que respalda la inversión es convincente.
La mala noticia: esperar aumenta los costos y limita las opciones. Cada mes de retraso implica un mes más de capacidad de IA limitada, mayores costos de modernización y oportunidades perdidas para aprovechar la IA en beneficio del negocio.
La transformación de la refrigeración de los centros de datos impulsada por la IA ya es una realidad. Las instalaciones que reconozcan esta realidad y actúen de forma proactiva respaldarán con éxito las estrategias de IA de sus organizaciones. Aquellas que se demoren descubrirán que su infraestructura de refrigeración por aire obsoleta se ha convertido en un cuello de botella que impide a sus organizaciones participar plenamente en la revolución de la IA.
El momento de actualizar tu infraestructura de refrigeración no es cuando el equipo de TI encargue los racks para GPU. Es ahora, antes de que las cargas de trabajo de IA sobrecarguen tu sistema de refrigeración y te veas obligado a tomar medidas reactivas y costosas. Tus futuras capacidades de IA dependen de las decisiones de refrigeración que tomes hoy.
Fuentes y lecturas adicionales
- Medio - Cómo construir un centro de datos de IA — Parte 1 (Refrigeración y energía)
- Centros de datos T5 – Desafíos de la infraestructura de IA: Energía y refrigeración en centros de datos de alta densidad
- Penguin Solutions – Refrigeración y alimentación de centros de datos de IA para satisfacer las demandas de infraestructura
- EdgeCore – Infraestructura de centros de datos de IA: Impulsando el futuro de la computación de IA
- CoreSite – La IA y el centro de datos: Impulsando una mayor densidad de potencia
- Vertiv – Refrigeración de alta densidad: Una guía de soluciones térmicas avanzadas para cargas de trabajo de IA y ML
- Frontera del centro de datos – La refrigeración líquida alcanza su punto álgido: Seguimiento de la inversión en centros de datos a mediados de 2025
- Medios de comunicación occidentales – El impacto de la IA en la energía y la refrigeración del centro de datos
- Equinix – La sala de máquinas de la IA: Dentro de los centros de datos de alto rendimiento que impulsan el futuro
- Espectros MHI – Refrigeración de centros de datos: El desafío inesperado para la IA


