HPE stawia wszystko na jedną kartę? Zmiana strategii u chmurowego giganta

Klaudia Ciesielska
Klaudia Ciesielska - Redaktor prowadzący Brandsit 4 min
4 min

W dzisiejszym świecie technologii, gdzie sztuczna inteligencja (AI) staje się coraz bardziej dominującą siłą, HPE wydaje się postawić wszystko na jedną kartę. Ich nowa strategia, skupiająca się na pełnym zakresie rozwiązań AI z udziałem Nvidia, może być zarówno innowacyjna, jak i ryzykowna. HPE stawia na architekturę natywną dla AI, proponując rozwiązania full-stack, które obejmują wszystko od sprzętu po oprogramowanie.

Antoni Neri, CEO HPE, twierdzi, że AI jest “najważniejszą technologią naszych czasów”, przewyższającą wpływem zarówno telefony komórkowe, jak i technologię chmury. Jednak to stwierdzenie, choć odważne, rzuca cień na istotne pytanie: czy HPE jest w stanie dostarczyć unikalną wartość w świecie, gdzie Nvidia wydaje się być wszechobecnym partnerem dla wielu firm technologicznych?

HPE i kluczowe partnerstwo z Nvidia

W centrum strategii HPE znajduje się współpraca z Nvidia. Ta współpraca obejmuje nie tylko sprzęt, ale i oprogramowanie, szkolenia oraz uruchamianie modeli AI w środowisku hybrydowym. To podejście wydaje się sensowne, biorąc pod uwagę dominującą rolę Nvidii w branży AI, zwłaszcza w kontekście ich komponentów sprzętowych niezbędnych do przetwarzania dużych obciążeń AI.

Wyzwania i potencjał

HPE staje przed wyzwaniem: jak wyróżnić się na tle konkurencji, która również wykorzystuje technologię Nvidii? Kluczowym elementem strategii HPE jest tzw. architektura AI-native, czyli architektura dedykowana sztucznej inteligencji. Zakłada ona, że różnorodne obciążenia wymagają różnego sprzętu. HPE wraz z Nvidia proponują rozwiązanie typu full-stack, pokrywające wszystko – od sprzętu, przez oprogramowanie, po szkolenia i uruchamianie modeli AI. Jest to podejście hybrydowe, łączące w sobie różne elementy technologii. Jednakże, brakuje tu jasności, jak ta architektura różni się od rozwiązań konkurencji.

Innowacje w przechowywaniu i wnioskowaniu

Na Discover Barcelona, HPE ogłosiło kluczowe aktualizacje w zakresie przechowywania danych. Z jednej strony, podkreślono wagę danych dla sztucznej inteligencji i szybkiego przechowywania, co znajduje odzwierciedlenie w platformie flash HPE GreenLake for File Storage. Z drugiej strony, zwrócono uwagę na potrzebę efektywnego „karmienia” drogich GPU, czemu służą nowe rozwiązania Nvidia Quantum-2 InfiniBand i Nvidia GPUDirect.

HPE wprowadziło serwery HPE ProLiant DL380a Gen 11, zaprojektowane z Nvidią i oparte na procesorach graficznych Nvidia L40S. Te serwery, zoptymalizowane pod kątem AI, są idealne do wnioskowania i pozwalają na dostrajanie modeli AI, w tym wstępnie wyszkolonych przez HPE.

Oprócz sprzętu, HPE kładzie nacisk na cały stos oprogramowania. Serwery ProLiant DL380a uruchamiają środowisko HPE Machine Learning Development Environment oraz platformę danych HPE Ezmeral, które współpracują z ekosystemem Nvidia AI Enterprise. HPE podkreśla swoje zaangażowanie w hybrydowe rozwiązania, oferując trening i tuning modeli AI w środowisku hybrydowym.

Chociaż partnerstwo HPE z Nvidia wydaje się być strategicznym ruchem, pozostają pytania dotyczące unikalności ich oferty. HPE zdaje się łączyć wiele istniejących rozwiązań w “całkowity stos”, ale brakuje wyraźnego zarysowania, co odróżnia ich podejście od konkurencji.

Czy architektura natywna dla AI HPE jest rzeczywiście rewolucyjna, czy też jest to tylko odpowiedź na ogólny trend dominacji Nvidii w branży AI? To pytanie pozostaje otwarte, a przyszłość pokaże, czy HPE rzeczywiście uda się wyróżnić na tle konkurencji i czy ich podejście do sztucznej inteligencji przyniesie przełomowe zmiany.

Udostępnij