Noticias
Cinco consejos para gestionar los desafíos energéticos en los Centros de Datos para IA
- Por Simon Ninan, Vicepresidente de Estrategia de Negocios, Hitachi Vantara //
Hoy las conversaciones sobre sostenibilidad se enfocan cada vez más en la creciente intersección entre la Inteligencia Artificial, el consumo energético y la resiliencia de la infraestructura, especialmente mientras los fenómenos climáticos extremos siguen poniendo a prueba los límites de los sistemas eléctricos globales.
La Organización Meteorológica Mundial acaba de emitir un informe señalando que los últimos 11 años han sido los más calurosos jamás experimentados por la humanidad. Y ahora, múltiples científicos advierten que lo que viene podría ser aún más intenso.
El aumento de las temperaturas, inviernos inusualmente fríos y otros factores pueden tensionar las redes eléctricas y provocar cortes de energía. En un mundo que depende fuertemente de los datos y la computación, ¿cómo pueden las empresas evitar que los eventos climáticos y las disrupciones externas de la red afecten a los Centros de Datos?
La mayoría comienza implementando sistemas de energía de respaldo para construir resiliencia.
Pero si se pueden comprender los eventos y controlar las cargas de trabajo de IA, es posible ir mucho más allá: evitar la inestabilidad de la red, hacer que los Centros de Datos de IA sean más resilientes, mejorar la eficiencia energética para no sobreextender costos y recursos, y aumentar la predictibilidad operativa. Así se logra.
Centros de Datos que entienden inteligencia en tiempo real
Las redes eléctricas tienen altibajos, y las cargas de trabajo de IA —ya sea para entrenamiento o inferencia— tienden a ser irregulares.
Las empresas que construyen sus Centros de Datos de IA con infraestructura de TI consciente de la red pueden aprovechar estas capacidades modernas para identificar la disponibilidad de la red en cualquier momento, y tomar decisiones informadas en tiempo real sobre la carga de trabajo y el uso de energía.
Sin embargo, pocas organizaciones tienen visibilidad completa del consumo energético o del rendimiento de la infraestructura. Menos de la mitad monitorea la demanda promedio de energía de sus servidores, y menos de un tercio puede calcular métricas de eficiencia trabajo-energía, según Uptime Intelligence.
El Centro de Datos del futuro eleva la observabilidad como una capacidad crítica, capturando y analizando datos en tiempo real de manera integrada, a través de almacenamiento inteligente y eficiente, otras tecnologías de TI en rack, redes inteligentes, fuentes de energía renovable y sistemas avanzados de enfriamiento.
Comprender patrones, detectar tendencias y mapear los impactos de los eventos se vuelve fundamental para la gestión y optimización inteligente de los Centros de Datos.
Inteligencia para programar cargas de trabajo y el entrenamiento de IA
Las empresas pueden entonces programar las cargas de trabajo de IA en concordancia con las condiciones de la red. Imaginemos una ola de calor que obliga a hogares y negocios a usar aire acondicionado de forma continua, o un invierno extremo que incrementa el uso de calefacción en una región, con puntos altos en ciertos momentos del día.
La infraestructura de TI inteligente puede detectar que la red está bajo estrés y evaluar si es necesario reprogramar cargas en otro horario o trasladarlas a ubicaciones donde la red tenga mayor capacidad.
En este proceso, las empresas pueden evitar la sobrecarga de la red, contribuir a sus comunidades y alinear mejor la demanda computacional con la disponibilidad energética.
Unificar software entre TI, energía, enfriamiento y gestión de edificios
Construir una infraestructura de IA verdaderamente consciente de la red requiere integrar software de gestión energética, de edificios, de enfriamiento y de TI. Esto implica pasar de un monitoreo básico a una gestión centralizada tipo “panel único de control” dentro del Centro de Datos, incluyendo entornos híbridos y Edge.
De hecho, esta necesidad se refleja en el crecimiento proyectado del mercado de gestión de infraestructura de Centros de Datos, con una tasa anual compuesta del 17,6% entre 2025 y 2034, acercándose a un tamaño de mercado de US$ 16 mil millones.

Sin embargo, integrar sistemas tan complejos no ha sido históricamente habitual ni sencillo, ya que requiere esfuerzos y experiencia entre áreas que tradicionalmente han operado de forma independiente.
Al asociarse con expertos para integrar estas capas e interpretar patrones complejos de datos, la gestión energética puede conectarse con datos del rack para detectar alzas de volumen, revelar impactos energéticos o térmicos adicionales y ofrecer recomendaciones para mitigarlos. Por ejemplo, puede requerirse mayor enfriamiento, disipación o planificación de respaldo energético adicional.
La integración también permite ir más allá del perímetro de la empresa e incorporar información externa, como eventos climáticos emergentes. Así, se pueden usar grandes volúmenes de datos para predecir impactos en los Centros de Datos y, si un sitio está bajo estrés, trasladar cargas de trabajo o inferencia a otro, manteniendo la disponibilidad sin sobrecargar la infraestructura local.
Ubicarse donde hay más energía disponible y generación propia
El diseño distribuido de Centros de Datos permite separar, en gran medida, la ubicación de las operaciones del negocio. Por ejemplo, que una empresa esté en Santiago, Buenos Aires, Bogotá, o Ciudad de México; no significa que su Centro de Datos de IA deba estar en esas ciudades. Los datos pueden moverse hacia donde la energía esté disponible.
Para identificar ubicaciones óptimas, es clave considerar disponibilidad de energía, terreno, recursos y menores restricciones regulatorias o sociales. También es fundamental cumplir con normativas locales, especialmente en temas de soberanía de datos, que imponen restricciones sobre dónde se almacenan y procesan.
En paralelo, implementar fuentes alternativas de energía es otra vía para asegurar el suministro. Por ello, grandes inversores en Centros de Datos están explorando reactores modulares pequeños, generación in situ con gas natural, así como energía solar, eólica y almacenamiento en baterías.
El desafío de la IA es alimentarla de manera eficiente y confiable
Todos reconocen el enorme potencial de la IA para procesar grandes volúmenes de datos y generar resultados rápidos e innovaciones transformadoras. Sin embargo, hoy el foco está en sus demandas energéticas.
No es sorprendente: los Centros de Datos tradicionales consumían entre 5 y 15 kilovatios por rack, mientras que los Centros de Datos de IA consumen mucho más: entre 60 y más de 150 kilovatios por rack.
Pero si se diseña una infraestructura de TI capaz de aprovechar información energética en tiempo real y adaptarse dinámicamente, es posible hacer que tanto el negocio como la red eléctrica sean más predecibles, confiables y eficientes, transformando la resiliencia de una medida reactiva a una ventaja inteligente impulsada por la sostenibilidad.
—




