50 kW na szafę? AI wymusza nową architekturę zasilania i chłodzenia data center

Rosnąca popularność sztucznej inteligencji radykalnie zmienia wymagania wobec infrastruktury centrów danych. Gęstość mocy na poziomie 50 kW na szafę rackową staje się nową normą, a tradycyjne systemy zasilania i chłodzenia przestają wystarczać.

7 Min
Data center
źródło: Freepik

Jeszcze kilka lat temu 10–15 kW na szafę rackową było uznawane za poziom wysokiej wydajności. Dziś w środowiskach projektowanych z myślą o sztucznej inteligencji to zaledwie punkt wyjścia. Serwerownie muszą być gotowe na przyjęcie po 30, 40, a nawet 50 kW na szafę – i to w sposób ciągły.

W praktyce oznacza to nie tylko większe zużycie energii, ale konieczność całkowitej zmiany podejścia do projektowania systemów zasilania i chłodzenia. AI redefiniuje infrastrukturę IT – od zasilania, przez chłodzenie, po rozkład okablowania i logikę obiegu cieplnego.

Gęstość mocy rośnie szybciej niż gotowość infrastruktury

Największą zmianą, jaką AI wprowadza w data center, jest gwałtowny wzrost gęstości mocy na poziomie pojedynczej szafy. „AI znacząco wpływa na projektowanie zasilania i chłodzenia, zwiększając gęstość mocy w szafach rackowych. Obecnie nie jest już zaskoczeniem, że pojedyncza szafa rackowa może pobierać 50 kW lub więcej, co kiedyś było charakterystyczne dla małych lub średnich serwerowni. Takie gęstości mocy wymuszają przejście na chłodzenie cieczą lub przynajmniej poważne rozważenie takiego rozwiązania.” – mówi Paweł Poziemski, Senior Application Engineer w Vertiv.

Tak wysokie wartości nie tylko generują więcej ciepła – one całkowicie zmieniają podejście do projektowania systemów infrastrukturalnych. W grę wchodzi już nie tylko moc przyłączeniowa dla całego obiektu, ale precyzyjne planowanie zasilania, chłodzenia i monitorowania dla każdej jednostki rack.

Zasilanie: musi być gotowe na impuls

Sztuczna inteligencja zmienia również charakter obciążenia data center. Zamiast stałego i przewidywalnego poboru mocy, pojawiają się krótkie, intensywne skoki zapotrzebowania – szczególnie w procesach trenowania modeli lub przetwarzania dużych zbiorów danych.

„Obecnie kluczowe trendy w zasilaniu gwarantowanym centrów danych i serwerowni obejmują dążenie do maksymalizacji efektywności energetycznej oraz adaptację do dynamicznych obciążeń generowanych przez sztuczną inteligencję (AI).” – podkreśla Poziemski.

Jednym z filarów tej zmiany są konstrukcje UPS o zwiększonych zdolnościach przeciążeniowych. Umożliwiają one lepsze zarządzanie impulsowymi obciążeniami AI nie tylko w sytuacjach wyjątkowych, ale w codziennej pracy. Co ważne, technologia podwójnej konwersji nadal jest rozwijana – nie jako rewolucja, ale konsekwentna optymalizacja.

„Technologia podwójnej konwersji, choć nie oferuje cudów, stale się rozwija, poprawiając sprawność na etapach prostownika i falownika. Ponadto, konstrukcje o zwiększonych zdolnościach przeciążeniowych stają się standardem, umożliwiając lepsze zarządzanie impulsowymi obciążeniami AI, co jest kluczowe nie tylko w sytuacjach wyjątkowych.” – zauważa ekspert Vertiv.

Chłodzenie: powietrze to za mało

Gdy rośnie gęstość mocy, rośnie też ilość ciepła, które trzeba efektywnie odprowadzić. Granica możliwości chłodzenia powietrzem została już praktycznie osiągnięta. Dlatego centra danych coraz częściej zwracają się w stronę chłodzenia cieczą – początkowo jako uzupełnienie, a dziś coraz częściej jako konieczność.

„Chłodzenie powietrzem osiąga swoje granice przy kilkudziesięciu kilowatach mocy cieplnej, które można schłodzić za pomocą aktywnych drzwi chłodzących. W przyszłości, a nawet już teraz, chipy będą oddawać ciepło bezpośrednio do cieczy chłodzącej.” – tłumaczy Poziemski.

Tego typu układy wymagają precyzyjnej kontroli obiegu cieczy oraz zabezpieczenia ich pracy w trybie ciągłym. Awaria systemu chłodzenia cieczą to nie tylko problem operacyjny – to ryzyko uszkodzenia całych zestawów GPU.

Nowe elementy – nowe zależności

Rozwój chłodzenia cieczą wprowadza do serwerowni nowe komponenty. Najważniejszym z nich jest CDU – Cooling Distribution Unit – jednostka odpowiedzialna za utrzymanie obiegu cieczy chłodzącej. Jej ciągłość pracy musi być zabezpieczona zasilaniem awaryjnym – podobnie jak w przypadku najważniejszych urządzeń IT.

„Wzrost gęstości mocy (ilości mocy na szafę rack) generuje dwa powiązane ze sobą zagadnienia: trzeba dostarczyć energię elektryczną i odebrać wytworzone z niej ciepło. Więcej mocy cieplnej oznacza konieczność przejścia docelowo na systemy chłodzenia bezpośredniego układów obliczeniowych cieczą. Ta ciecz musi bezprzerwowo krążyć, aby nie dopuścić do „usmażenia się” GPU. ” – podkreśla ekspert Vertiv.

To właśnie dlatego podczas projektowania systemów UPS należy uwzględniać również zapotrzebowanie energetyczne elementów infrastruktury wspomagającej – jak właśnie CDU.

Zmienią się także standardy dystrybucji zasilania. Zamiast gęstej sieci przewodów pod podłogą techniczną coraz częściej stosuje się szynoprzewody prowadzone nad szafami.

„To elegancki i bezpieczny sposób, aby rozprowadzić zasilanie po serwerowni wysokiej gęstości. Wężowisko grubych przewodów pod podłogą nie jest rozwiązaniem.” – mówi Poziemski.

Coraz ważniejszym komponentem stają się też inteligentne listwy zasilające PDU z funkcjami monitoringu środowiskowego.

“Odpowiedzią na potrzebę monitorowania warunków środowiskowych mogą być listwy zasilające, które stanowią element monitoringu warunków środowiskowych takich jak np. temperatura czy wilgotność. Ułatwia to kontrolę nad coraz bardziej złożonym środowiskiem IT bez konieczności budowania od zera specjalnego systemu.” – podkreśla Paweł Poziemski.

AI to również infrastruktura

Zmiany wywołane przez AI są na tyle głębokie, że nie da się ich wdrożyć jako modernizacji istniejącej infrastruktury. Wymagają projektowania architektury IT praktycznie od zera – z uwzględnieniem nowych obciążeń, nowych układów chłodzenia i innej logiki dystrybucji energii.

Odpowiedzią na potrzebę monitorowania warunków środowiskowych mogą być listwy zasilające, które stanowią element monitoringu warunków środowiskowych takich jak np. temperatura czy wilgotność. Ułatwia to kontrolę nad coraz bardziej złożonym środowiskiem IT bez konieczności budowania od zera specjalnego systemu.  

Rozwój sztucznej inteligencji przyciąga uwagę głównie z powodu przełomowych modeli i zastosowań, ale równie istotny jest jej wpływ na fizyczne fundamenty IT. Projektowanie centrów danych musi dziś uwzględniać nie tylko kwestie zasilania i chłodzenia, ale także zachowanie ciągłości pracy urządzeń wspomagających oraz precyzyjne monitorowanie środowiska.

AI to nie tylko skok algorytmiczny – to przede wszystkim skok energetyczny i termiczny. Tylko ci, którzy dostosują swoją infrastrukturę do nowych realiów, będą w stanie realnie z AI korzystać.

Udostępnij