Przez lata Amazon Web Services (AWS) budował swoją potęgę w oparciu o autorskie rozwiązania sprzętowe, starannie chroniąc ekosystem swoich centrów danych przed nadmierną zależnością od zewnętrznych dostawców. Jednak skala wyścigu o dominację w generatywnej sztucznej inteligencji wymusza rewizję nawet najbardziej ugruntowanych strategii. Ogłoszony właśnie kontrakt na dostawę miliona procesorów graficznych Nvidii dla AWS to nie tylko imponująca transakcja handlowa, ale przede wszystkim sygnał głębokiej integracji technologicznej obu gigantów.
Ian Buck, wiceprezes Nvidii ds. obliczeń hiperskalowych, doprecyzował ramy czasowe tego porozumienia: proces wdrażania jednostek rozpocznie się jeszcze w tym roku i potrwa do 2027 roku. Dla rynku to jasny komunikat – zapotrzebowanie na moc obliczeniową nie jest chwilową bańką, lecz fundamentem wieloletnich planów inwestycyjnych. Umowa wpisuje się w optymistyczną wizję Jensena Huanga, który szacuje potencjał sprzedażowy nowych rodzin chipów, takich jak Rubin i Blackwell, na bilion dolarów.
Klucz do zrozumienia tej współpracy leży jednak głębiej niż w samej liczbie dostarczonych GPU. Najbardziej intrygującym elementem kontraktu jest zgoda AWS na implementację rozwiązań sieciowych Nvidii – Spectrum-X oraz ConnectX. Fakt, że Amazon otwiera swoje centra danych na architekturę sieciową zewnętrznego partnera, świadczy o tym, jak krytyczna stała się wydajność przesyłu danych w procesach AI. Buck podkreśla, że nowoczesne wnioskowanie (inference) to proces „potwornie trudny”, wymagający nie pojedynczego układu, lecz synergii całego stosu technologicznego.
W tym kontekście istotną rolę odegrają również chipy Groq, pozyskane przez Nvidię w ramach ubiegłorocznej umowy licencyjnej o wartości 17 miliardów dolarów. AWS planuje wykorzystać je wraz z sześcioma innymi typami procesorów Nvidii, aby zmaksymalizować efektywność generowania odpowiedzi przez systemy AI.
