Gorączka inwestycyjna wokół sztucznej inteligencji napędza ambitne prognozy dotyczące wzrostu zużycia energii przez centra danych. W Stanach Zjednoczonych dyskusja o potrzebie zbudowania dziesiątek nowych gigawatów mocy staje się politycznym i technologicznym priorytetem. Ale nowe analizy wskazują, że te szacunki mogą być zwyczajnie nierealistyczne – głównie z powodu ograniczeń w światowej produkcji półprzewodników.
Wnioski te mają znaczenie nie tylko dla USA, ale również dla Europy, która coraz odważniej inwestuje w infrastrukturę pod generatywną AI. I mogą być szczególnie cenne w Polsce – kraju z napiętą równowagą energetyczną, transformującą się siecią przesyłową i ambicjami budowy lokalnych centrów obliczeniowych.
AI rozgrzewa rynek energetyczny
Na fali entuzjazmu wobec AI, amerykański Departament Energii szacuje, że do 2030 roku kraj będzie potrzebować dodatkowych 100 GW mocy szczytowej – z czego połowa ma zostać przeznaczona na zasilenie centrów danych. To ogromna liczba, biorąc pod uwagę, że 100 GW to równowartość całej obecnej mocy zainstalowanej w Polsce.
Prognozy te wywołały falę aktywności. Operatorzy sieci energetycznych, przedsiębiorstwa użyteczności publicznej, lokalne władze i inwestorzy spieszą się z projektowaniem i realizacją infrastruktury, mającej zabezpieczyć potrzeby energetyczne przyszłych klastrów AI. Część z nich już dziś ostrzega, że rośnie liczba wniosków o przyłączenie do sieci, których realizacja może przeciążać systemy i prowadzić do opóźnień lub konieczności rozbudowy.
Chłodny prysznic z Londynu
W tym kontekście raport przygotowany przez firmę London Economics International (LEI) na zlecenie Southern Environmental Law Center działa jak kubeł zimnej wody. Główny wniosek? Amerykańskie prognozy energetyczne dla AI są znacznie zawyżone – ponieważ nie uwzględniają globalnych ograniczeń w dostępności chipów półprzewodnikowych, bez których centra danych po prostu nie działają.
Analitycy LEI zestawili przewidywane wzrosty zapotrzebowania na energię z realiami podaży chipów AI. Wyszło z tego proste równanie: aby zrealizować zakładany wzrost o 57 GW zużycia energii przez centra danych w USA do 2030 roku, kraj ten musiałby „przejąć” ponad 90% światowej podaży nowych chipów. A to scenariusz skrajnie nieprawdopodobny – dziś udział USA w globalnym popycie na chipy wynosi mniej niż 50%, a pozostałe regiony – Chiny, UE, Indie – również planują dynamiczny rozwój w tym zakresie.
Pułapka błędnych założeń
Główny problem, na jaki wskazuje raport, to brak „zdroworozsądkowej korekty” w prognozach. W analizach brakuje realnego uwzględnienia ograniczeń produkcyjnych i logistycznych – od fabryk chipów po chłodzenie, przestrzeń, wykwalifikowany personel i przepustowość sieci. Efekt? Inwestorzy i regulatorzy mogą podejmować decyzje na podstawie danych, które nie mają pokrycia w realiach technologicznych.
W grze są ogromne pieniądze. Budowa nowych linii przesyłowych, elektrowni czy infrastruktury przyłączeniowej to inwestycje, które rozlicza się dekadami. Jeśli okaże się, że centra danych nie powstaną lub nie będą działać z zakładanym obciążeniem – koszty zostaną przeniesione na odbiorców energii i podatników.
I to już się dzieje. Przykład? W niektórych rejonach USA operatorzy sieci informują o 5–10 razy większej liczbie żądań przyłączeń niż rzeczywista liczba realizowanych projektów. Takie rozdźwięki mogą prowadzić do przeinwestowania i infrastrukturalnych „martwych punktów”.
Polska lekcja: nie kopiujmy entuzjazmu
Co to oznacza dla Europy i Polski? Choć tempo rozwoju infrastruktury AI na Starym Kontynencie jest wolniejsze niż w USA, to nie brakuje zapowiedzi budowy centrów danych wspierających modele językowe, analitykę przemysłową czy chmurę suwerenną. W Polsce działają już hiperskalerzy, rośnie liczba farm serwerowych, a rozwój krajowego rynku AI ma być wsparty środkami z KPO i programów strategicznych.
Ale polski system energetyczny nie ma takiej elastyczności jak amerykański. Brakuje nadmiarowej mocy, a transformacja energetyczna wymaga miliardowych inwestycji w sieci i źródła odnawialne. Każda decyzja o budowie „energożernego” centrum danych musi być oparta na racjonalnych przesłankach, a nie tylko trendzie. Inaczej Polska może powtórzyć błędy USA – ale z dużo większym ryzykiem systemowym.
Warto też spojrzeć na to z perspektywy kanału IT. Dostawcy technologii, integratorzy, resellerzy i operatorzy chmurowi powinni nauczyć się rozróżniać realne potrzeby klientów od entuzjastycznych deklaracji o „potrzebie AI na skalę przemysłową”. Może się bowiem okazać, że część planów jest bardziej strategią PR niż faktyczną ścieżką inwestycyjną.
Zdrowy rozsądek jako przewaga
Nie chodzi o to, by spowalniać rozwój sztucznej inteligencji – ale by nie budować pod nią infrastruktury, która nie będzie miała odbiorców. Raport London Economics przypomina, że technologia nie rozwija się w próżni – a najbardziej zaawansowane modele AI potrzebują nie tylko zasilania, ale i fizycznych układów scalonych, które mają ograniczoną produkcję.
Dla decydentów i inwestorów to moment, by zastanowić się, czy liczby, które widzą w raportach, są realistyczne. A dla firm technologicznych – czas, by chłodna analiza danych stała się przewagą konkurencyjną nad modą na szybkie deklaracje.