500+ nowych centrów danych w budowie – AI napędza rozwój infrastruktury chmurowej

Hiperskalowe centra danych przechodzą intensywną transformację, napędzaną boomem na sztuczną inteligencję. Najwięksi dostawcy chmurowi inwestują miliardy w nowe obiekty, które nie tylko rosną w liczbie, ale przede wszystkim zyskują na skali, wydajności i gęstości obliczeniowej.

Izabela Myszkowska

Chmurowi giganci intensyfikują inwestycje w infrastrukturę, a nowe centra danych stają się większe, gęstsze i coraz bardziej zoptymalizowane pod kątem sztucznej inteligencji. Według danych Synergy Research Group liczba hiperskalowych obiektów przekroczyła już 1100, a Amazon, Microsoft i Google odpowiadają za blisko 60% całkowitej mocy obliczeniowej w tym segmencie.

Więcej niż tylko liczby

Na koniec 2024 roku na świecie działało 1 136 hiperskalowych centrów danych — to skok o prawie 15% w porównaniu z rokiem wcześniejszym. I choć sam wzrost liczby lokalizacji robi wrażenie, to jeszcze istotniejsze zmiany dzieją się „pod maską”. Nowo powstające obiekty są znacznie większe i wydajniejsze niż ich poprzednicy. To efekt rosnących potrzeb związanych z AI, które wymuszają większą koncentrację mocy obliczeniowej i wyższą gęstość infrastruktury.

Trend ten przekłada się na rosnącą dynamikę budów — obecnie w planach lub w trakcie realizacji znajduje się ponad 500 kolejnych centrów danych. Synergy prognozuje, że średnio 130–140 nowych obiektów rocznie będzie pojawiać się na mapie przez najbliższe lata.

AI jako główny motor

Sztuczna inteligencja przestaje być tylko jednym z zastosowań chmury — staje się jej głównym napędem. Wielkoskalowe modele językowe, generatywne systemy i aplikacje bazujące na inferencji wymagają nieporównywalnie większej mocy niż klasyczne workloady chmurowe. Odpowiedzią dostawców są inwestycje liczone w dziesiątkach miliardów dolarów, kierowane przede wszystkim na rozwój infrastruktury AI.

Ad imageAd image

Nowe generacje układów — jak zaprezentowany niedawno przez Nvidię Blackwell Ultra czy zapowiedziany Vera Rubin — pozwalają osiągać gęstość mocy i pamięci nieosiągalną jeszcze kilka lat temu. To otwiera drogę do budowy tzw. „AI factories”, czyli obiektów projektowanych od podstaw do obsługi zaawansowanych agentów sztucznej inteligencji.

Ewolucja w dwóch kierunkach

Choć uwaga rynku koncentruje się na gigantach, równolegle trwa rozwój mniejszych, bardziej lokalnych centrów danych. Celem jest skrócenie fizycznej odległości między infrastrukturą a użytkownikiem końcowym, co przekłada się na niższe opóźnienia i wyższą jakość usług — zwłaszcza w kontekście AI na brzegu sieci (edge AI).

Przykładem alternatywnego podejścia jest Oracle, który mimo skromnego 3% udziału w rynku chmurowym, systematycznie zwiększa liczbę regionów — z 68 do 101 w ciągu zaledwie roku — i stawia na strategię „mniejszego i bliżej”. To kontrast wobec hiperskalowego modelu dominującego u największych dostawców, ale pokazuje, że nie każda droga do AI musi prowadzić przez megacentre.

Co dalej?

Infrastruktura chmurowa znajduje się w punkcie zwrotnym. Przestrzeń do dalszego skalowania nie kończy się na liczbie obiektów — równie ważne jest to, co dzieje się w ich wnętrzu. Wyraźny zwrot w stronę wysokowydajnych, wyspecjalizowanych jednostek obliczeniowych i coraz większa gęstość zasobów zwiastują kolejny etap rewolucji infrastrukturalnej.

Jeśli obecne tempo się utrzyma, całkowita pojemność obliczeniowa centrów danych może ponownie się podwoić w mniej niż cztery lata. A to oznacza, że wyścig o dominację w erze AI dopiero się rozpędza.

Udostępnij