Fokus na GPU zmienia wszystko: dlaczego centra danych projektuje się dziś od zera

Rosnące tempo wdrożeń sztucznej inteligencji sprawia, że tradycyjne centra danych przestają nadążać za wymaganiami obliczeniowymi nowej generacji. GPU, które stały się fundamentem rozwoju AI, wymuszają całkowite przeprojektowanie infrastruktury – od zasilania po chłodzenie.

Klaudia Ciesielska
5 min
data center, port
źródło: Freepik

Do niedawna centra danych rozwijano w przewidywalnym rytmie. Liczyły się powierzchnia, redundancja, stabilność zasilania i chłodzenie – najlepiej pasywne, by ograniczać koszty. Dziś ten model trzeszczy w szwach. Za sprawą gwałtownego wzrostu zapotrzebowania na moc obliczeniową do przetwarzania modeli sztucznej inteligencji, fizyczna architektura centrów danych musi ulec fundamentalnej zmianie.

W centrum rewolucji stoją GPU – układy graficzne, które przejęły rolę głównego silnika obliczeniowego dla generatywnej AI. Ale większa moc to też więcej ciepła, energii, złożoności… i problemów, których nie da się już „zredukować” lepszą wentylacją.

Od CPU do GPU: skok w zapotrzebowaniu

Modele językowe i systemy generatywne działają w sposób nieliniowy. W odróżnieniu od klasycznych obciążeń IT, gdzie zużycie mocy rosło proporcjonalnie do liczby użytkowników lub transakcji, AI wprowadza gwałtowne skoki zapotrzebowania – i ogromne piki energetyczne. Jeden dobrze wytrenowany model może w ciągu kilku godzin zużyć więcej mocy niż cała baza danych banku w tydzień.

Odpowiedzią branży na te potrzeby są klastry GPU – często w układach H100 lub Grace Hopper, zintegrowane z magistralami NVLink i rozproszone między wyspecjalizowanymi węzłami. W tradycyjnym centrum danych trudno jednak efektywnie wykorzystać takie klastry bez całkowitej przebudowy systemu zasilania i chłodzenia. To właśnie dlatego operatorzy przestają adaptować istniejącą infrastrukturę i coraz częściej projektują obiekty „od zera” – specjalnie pod AI.

Ad imageAd image

Infrastruktura, która musi myśleć

GPU zużywają znacznie więcej energii niż CPU – i to nie tylko w jednostkach bezwzględnych, ale też w gęstości na szafę. To oznacza, że dotychczasowe normy zasilania – np. 4–6 kW na szafę – przestają mieć zastosowanie. W projektach opartych na AI planuje się dziś moc rzędu 20–30 kW na szafę, a w niektórych przypadkach nawet więcej.

Takie wartości nie tylko wymagają większej podaży mocy z zewnątrz, ale też zmieniają sposób zarządzania energią wewnątrz obiektu. Centra danych stają się systemami energetycznymi, w których liczy się orkiestracja mocy – czyli dynamiczne zarządzanie zasilaniem między strefami w zależności od obciążenia.

Równolegle pojawia się konieczność zmiany systemów chłodzenia. Wentylatory i klimatyzacja przestają wystarczać. Coraz częściej stosuje się chłodzenie cieczą – najpierw w formie chłodzonych płyt (cold plate), a w dalszym etapie poprzez pełne zanurzenie układów (immersion cooling). To już nie są tylko rozwiązania niszowe – to warunek funkcjonowania w erze GPU.

Modularność zamiast monolitu

Odpowiedzią na złożoność technologiczną stała się modularność. Nowe centra danych coraz częściej powstają w postaci prefabrykowanych modułów – gotowych bloków zasilania, chłodzenia i serwerowni, które można szybko zestawić, rozbudować lub przenieść. Elastyczność stała się nowym dogmatem.

Tradycyjny model dużych serwerowni, gdzie wszystkie funkcje były zintegrowane w jednej bryle, ustępuje miejsca rozproszonym konstrukcjom, które można projektować z większą precyzją pod konkretne obciążenia – zwłaszcza GPU. To pozwala lepiej zarządzać nie tylko wydajnością, ale też kosztami operacyjnymi i bezpieczeństwem.

Automatyzacja to nie luksus – to warunek działania

Im bardziej złożone stają się systemy AI, tym bardziej nieprzewidywalne stają się obciążenia. W odpowiedzi operatorzy centrów danych wdrażają coraz bardziej zaawansowane systemy monitoringu i automatyki – od predykcji awarii, przez dynamiczne zarządzanie chłodzeniem, po ciągłą analizę stanu zasilania.

W praktyce oznacza to, że fizyczna obecność technika staje się rzadkością. Zarządzanie odbywa się zdalnie, często z wykorzystaniem AI, która sama podejmuje decyzje o balansowaniu obciążenia lub włączaniu zapasowych systemów. To nie tyle automatyzacja, co całkowita redefinicja operacji.

Klienci nie kupują już powierzchni – kupują moc

W tradycyjnym modelu klient data center wynajmował określoną powierzchnię lub szafę. Dziś, w erze AI, kluczową walutą staje się dostępna moc – i to ona decyduje o cenie, dostępności oraz atrakcyjności oferty.

Pojawiają się też nowi klienci – startupy AI, dostawcy modeli językowych, fintechy, ale też firmy przemysłowe, które wdrażają własne modele predykcyjne. Ich potrzeby są dynamiczne, a wymagania wysokie. Oczekują elastyczności, skalowalności i wsparcia technicznego w dostosowywaniu infrastruktury do obciążeń, które nie zawsze da się przewidzieć.

Era GPU nie skończy się na H100 czy MI300. Kolejne generacje układów będą jeszcze bardziej energochłonne, jeszcze bardziej wyspecjalizowane i jeszcze trudniejsze do integracji w istniejących środowiskach. Dlatego centra danych będą musiały się zmieniać – nie tylko pod względem technologii, ale też kultury projektowej i operacyjnej.

Coraz częściej nie chodzi o to, ile masz przestrzeni, ale czy jesteś w stanie dostarczyć moc tam, gdzie będzie potrzebna – zanim pojawi się klient. To całkowita zmiana perspektywy.

Udostępnij