100 000 GPU od Nvidia dla Llama 4 – Meta wkracza na nowy poziom AI

Meta, wykorzystując ponad 100 000 procesorów graficznych Nvidia H100, szkoli swój najnowszy model językowy Llama 4 na jednym z największych klastrów obliczeniowych na świecie. Ten rekordowy projekt nie tylko zwiększa możliwości sztucznej inteligencji, ale również stawia pytania o rosnące zapotrzebowanie na energię i jego wpływ na środowisko.

źródło: Unplash/Muhammad Asyfaul
Izabela Myszkowska
3 min

Meta potwierdziła, że jej najnowszy model językowy Llama 4 jest trenowany na jednym z największych klastrów obliczeniowych na świecie. Do szkolenia tej zaawansowanej sztucznej inteligencji wykorzystywane jest ponad 100 000 procesorów graficznych Nvidia H100, co czyni ten klaster największym na świecie, przynajmniej spośród publicznie ujawnionych.

Gigantyczne zapotrzebowanie na moc obliczeniową

Trening dużych modeli językowych, takich jak Llama 4, wymaga ogromnej mocy obliczeniowej. Im większy i bardziej zaawansowany model, tym dłużej trwa jego szkolenie – czasem nawet miesiącami, przy wykorzystaniu największych dostępnych na rynku zasobów. Procesory graficzne Nvidia H100, zastosowane w klastrze Meta, to jedne z najpotężniejszych akceleratorów AI dostępnych w masowej skali. Charakteryzują się one wyjątkową wydajnością i są zaprojektowane specjalnie pod kątem obciążeń związanych z treningiem sztucznej inteligencji.

Klastry AI o takiej mocy stanowią istotny krok w kierunku tworzenia jeszcze bardziej zaawansowanych i potężniejszych modeli językowych, które potrafią generować teksty, rozumieć kontekst i przetwarzać złożone zapytania z niespotykaną dotąd precyzją. Meta celuje w to, by Llama 4 był jednym z najsilniejszych modeli językowych na rynku, z umiejętnością “mądrego rozumowania” i interpretacji danych na wysokim poziomie.

REKLAMA

Meta a wyścig o mocniejsze klastry AI

Ambicje rozbudowy klastrów AI sięgają szeroko wśród technologicznych gigantów. Elon Musk, pracujący nad rozwinięciem sztucznej inteligencji w ramach swojego projektu xAI, również dąży do stworzenia podobnego klastra, liczącego dziesiątki tysięcy chipów Nvidia H100. Konkurencja o skalę obliczeń rośnie, jednak klaster Meta z ponad 100 000 jednostek GPU wydaje się na ten moment bezkonkurencyjny.

Koszty energetyczne i ekologia AI

Zapotrzebowanie na energię dla tak dużych centrów danych rośnie w tempie, które budzi pytania o ich wpływ na środowisko i zasoby naturalne. Szacuje się, że centrum danych zasilane przez tak ogromny klaster zużywa tyle energii, co średniej wielkości miasto. Równocześnie jednak rosną oczekiwania co do tego, by AI była w stanie dostarczać jeszcze bardziej kompleksowych rozwiązań, zwłaszcza w biznesie, medycynie czy naukach przyrodniczych.

Jednocześnie problem źródeł zasilania takich klastrów staje się tematem coraz szerszej debaty. Choć Meta nie ujawniła, jak zasila swoje superklastry, branża AI rozważa alternatywne źródła energii, w tym energię jądrową. Firmy takie jak Oracle, AWS i Microsoft prowadzą badania nad wdrożeniem energii jądrowej – zarówno poprzez zakup istniejących reaktorów, jak i inwestowanie we własne małe reaktory modułowe. Umożliwiłoby to bardziej stabilne i ekologiczne zasilanie centrów danych, odpowiadające na rosnące zapotrzebowanie na energię.

Przyszłość AI w kontekście wpływu na zasoby

Podczas gdy superkomputery napędzające AI zyskują na sile i rozmachu, kwestia ich zrównoważonego rozwoju pozostaje otwarta. Wzrost zdolności obliczeniowych takich jak Llama 4 otwiera nowe możliwości, ale jednocześnie stawia pytanie o ekologiczne i społeczno-gospodarcze konsekwencje eksploatacji zasobów na tak ogromną skalę.