OpenAI sięga po chipy Google. Czy TPU zagrożą dominacji Nvidii i Microsoftu w AI?

OpenAI zaczyna korzystać z chipów TPU od Google Cloud, rozszerzając swoje zaplecze obliczeniowe poza dominującą dotąd Nvidię i infrastrukturę Microsoftu. To zaskakujący, ale logiczny ruch w kontekście rosnących kosztów operacyjnych i coraz ostrzejszej rywalizacji na rynku sztucznej inteligencji.

Kuba Kowalczyk
3 min
Openai, ai
źródło: Levart_Photographer / Unplash

OpenAI – firma, która w centrum globalnej rewolucji AI postawiła ChatGPT – rozszerza swoje zaplecze sprzętowe, sięgając po chipy obliczeniowe od… konkurencji. Jak podał Reuters, spółka zaczęła wynajmować jednostki TPU (Tensor Processing Unit) od Google Cloud, by sprostać rosnącemu zapotrzebowaniu na moc obliczeniową. To ruch, który może zmienić układ sił w całym krajobrazie chmury AI.

Dotychczas OpenAI niemal w całości opierał się na infrastrukturze Microsoftu – głównego inwestora i partnera technologicznego – oraz chipach GPU od Nvidii, niekwestionowanego lidera rynku sprzętu AI. Decyzja o skorzystaniu z TPU od Google jest więc znaczącym krokiem nie tylko pod względem technologicznym, ale i strategicznym.

TPU to autorskie układy scalone Google, projektowane specjalnie z myślą o przetwarzaniu zadań związanych z uczeniem maszynowym. Choć do niedawna były one zarezerwowane niemal wyłącznie na użytek wewnętrzny, Google coraz częściej udostępnia je partnerom zewnętrznym. Do grona klientów dołączyły już Apple, Anthropic czy Safe Superintelligence. Teraz dołącza także OpenAI.

Dlaczego OpenAI decyduje się na ten krok właśnie teraz? Kluczowe mogą być dwa powody: koszty i dywersyfikacja. W miarę jak skala użytkowania ChatGPT rośnie, rośnie też koszt tzw. inference, czyli procesu, w którym model AI analizuje nowe dane i generuje odpowiedzi. TPU mogą stanowić bardziej opłacalną alternatywę dla drogich układów GPU od Nvidii.

Ad imageAd image

Z drugiej strony, to także ruch zmniejszający zależność OpenAI od Microsoftu, który nie tylko dostarcza firmie infrastrukturę, ale też rozwija własne modele konkurujące z ChatGPT (Copilot, Azure AI Studio). Współpraca z Google może dać OpenAI większą niezależność operacyjną, nawet jeśli Google – również konkurent w dziedzinie generatywnej AI – nie udostępnia wszystkich najnowszych generacji swoich TPU.

Z perspektywy Google, z kolei, pozyskanie tak prestiżowego klienta to duży sygnał dla rynku. Firma od lat rozwija swój ekosystem chmurowy, ale do tej pory pozostawała w cieniu AWS i Microsoft Azure. Umożliwienie OpenAI korzystania z TPU to nie tylko przykład „monetyzacji” własnej technologii AI, ale też sposób na budowanie pozycji w wojnie o klientów korporacyjnych.

Nie jest to jeszcze zerwanie z Nvidią czy Microsoftem – raczej przemyślana próba zbudowania bardziej zbalansowanego ekosystemu obliczeniowego. Jednak w kontekście rosnących napięć i rywalizacji w sektorze AI, to ruch, który może zwiastować większe przemeblowanie w chmurowej geopolityce.

Na razie to eksperyment. Ale jeśli TPU Google okażą się efektywne kosztowo, OpenAI może zainicjować trend, który podważy dominację Nvidii i umocni pozycję Google Cloud jako platformy obliczeniowej dla dużych modeli AI. 

Udostępnij