Serwery AI na fali. Rozwój sztucznej inteligencji będzie jeszcze szybszy

Izabela Myszkowska
5 min

Według najnowszego badania rynku serwerów przeprowadzonego przez TrendForce, wielu dostawców usług w chmurze (CSP) rozpoczęło inwestycje na dużą skalę w sprzęt obsługujący technologie sztucznej inteligencji (AI) . Rozwój ten jest odpowiedzią na pojawienie się od 2018 roku nowych aplikacji, takich jak autonomiczne samochody, sztuczna inteligencja rzeczy (AIoT) i przetwarzanie brzegowe. TrendForce szacuje, że w 2022 roku serwery AI wyposażone w procesory graficzne ogólnego przeznaczenia (GPGPU ) stanowiły prawie 1% rocznych globalnych dostaw serwerów. W 2023 r. przewiduje się, że dostawy serwerów AI wzrosną o 8% r/r dzięki ChatBotowi i podobnym aplikacjom generującym popyt w dziedzinach związanych ze sztuczną inteligencją. Ponadto przewiduje się, że dostawy serwerów AI wzrosną o CAGR na poziomie 10,8% w latach 2022-2026.

TrendForce ustalił również, że czterech głównych północnoamerykańskich dostawców CSP (tj. Google, AWS, Meta i Microsoft) łącznie miało największy udział w rocznym całkowitym popycie na serwery AI w 2022 r., odpowiadając za 66,2% rocznej globalnej ilości zamówień. Zwracając się do Chin, lokalizacja produkcji i samowystarczalność w zakresie technologii krytycznych nabrały w ostatnich latach tempa, więc budowa infrastruktury dla technologii AI również przyspieszyła w tym kraju. Wśród chińskich CSP ByteDance był liderem w zakupach serwerów AI w 2022 roku. Jego udział w rocznej globalnej ilości zakupów wyniósł 6,2%. Za ByteDance uplasowały się Tencent, Alibaba i Baidu, które stanowiły odpowiednio około 2,3%, 1,5% i 1,5%.

Optymalizacja wyszukiwarek oparta na sztucznej inteligencji napędza popyt na HBM

Widząc świetlaną przyszłość w rozwoju technologii AI, Microsoft zainwestował pokaźną sumę w znane laboratorium badawcze OpenAI. Ponadto, Microsoft uruchomił w lutym ulepszoną wersję swojej wyszukiwarki Bing. Nowy Bing zawiera wielkoskalowy model językowy o nazwie Prometheus oraz technologię leżącą u podstaw ChatGPT. Prometheus to efekt współpracy Microsoft i OpenAI. Aby nie zostać pominiętym, Baidu uruchomił ERNIE Bot również w lutym tego roku. Początkowo działający jako samodzielne oprogramowanie, ERNIE Bot zostanie później zintegrowany z własną wyszukiwarką Baidu.

REKLAMA

Jeśli chodzi o modele i specyfikacje chipów obliczeniowych używanych w wyżej wymienionych projektach, ChatGPT przyjęło głównie A100 firmy NVIDIA i wykorzystuje wyłącznie zasoby i usługi w chmurze Microsoft Azure. Jeśli połączymy popyt ze strony ChatGPT i innych aplikacji Microsoftu, wówczas zapotrzebowanie Microsoftu na serwery AI wyniesie łącznie około 25 000 jednostek w 2023 roku. Wracając do ERNIE Bota firmy Baidu, pierwotnie zaadoptowano A100 firmy NVIDIA. Jednak ze względu na ograniczenia kontroli eksportu wprowadzone przez Departament Handlu USA, ERNIE Bot przeszedł teraz na A800. Jeśli popyt ze strony ERNIE Bota i innych aplikacji Baidu zostanie połączony, to przewiduje się, że zapotrzebowanie Baidu na serwery AI wyniesie łącznie około 2000 jednostek w 2023 roku. Badanie TrendForce ujawniło, że na rynku procesorów graficznych do serwerów wykorzystywanych w obliczeniach związanych ze sztuczną inteligencją do głównych produktów należą H100, A100 i A800 firmy NVIDIA oraz serie MI250 i MI250X firmy AMD. Należy zauważyć, że A800 został zaprojektowany specjalnie na rynek chiński w kontekście najnowszych ograniczeń eksportowych. Jeśli chodzi o udział w rynku procesorów graficznych do serwerów, NVIDIA kontroluje obecnie około 80%, podczas gdy AMD kontroluje około 20%.

Koncentrując się tylko na specyfikacjach wyżej wymienionych procesorów graficznych, te, które są zaangażowane w obliczenia o dużej przepustowości, a tym samym wymagają pamięci o dużej przepustowości (HBM), przyciągnęły jeszcze większą uwagę na rynku. Wykorzystując bity jako podstawę do obliczeń, firma TrendForce ustaliła, że ​​HBM stanowi obecnie około 1,5% całego rynku pamięci DRAM. Głównymi dostawcami rozwiązań HBM są Samsung, SK hynix i Micron. Oczekuje się, że wśród nich SK hynix stanie się dominującym dostawcą rozwiązań HBM3, ponieważ jako jedyny jest w stanie masowo produkować rozwiązanie HBM3 przyjęte przez firmę NVIDIA. Ponadto, ponieważ rozwiązania HBM jako całość mają bardzo wysoką barierę wejścia w odniesieniu do technologii produkcji, dostawcy pamięci postrzegają je jako produkty o wysokiej marży brutto. 

W okresie 2020-2021, kiedy pandemia COVID-19 osiągnęła szczyt, nabywcy kluczowych komponentów zwiększyli swoje zapasy powyżej zwykłego poziomu z powodu obaw o spowodowane pandemią niedobory w łańcuchu dostaw. W efekcie w tym samym okresie znacznie wzrósł popyt na rozwiązania HBM. Oczekuje się jednak, że w 2023 r. wzrost tego popytu ulegnie wyhamowaniu ze względu na presję na korekty zapasów. TrendForce przewiduje obecnie, że rynek rozwiązań HBM będzie się rozwijał w latach 2023-2025 ze wskaźnikiem CAGR powyżej 40-45%. Podsumowując, firmy chmurowe na całym świecie będą z biegiem lat więcej inwestować w serwery AI. Obecnie firmy i organizacje ograniczają wydatki na IT, ponieważ na światową gospodarkę wpływa wysoka inflacja i powolny wzrost.

SOURCES:TrendForce