Ad image

HPE i NVIDIA łączą siły i prezentują innowacyjne rozwiązania AI dla przedsiębiorstw

Hewlett Packard Enterprise (HPE) i NVIDIA zaprezentowały NVIDIA AI Computing by HPE - portfolio wspólnie opracowanych rozwiązań AI pozwalających przedsiębiorstwom na szybsze wdrażanie generatywnej sztucznej inteligencji.

Klaudia Ciesielska - Redaktor prowadzący Brandsit 8 Min Read

Wśród kluczowych komponentów znajduje się HPE Private Cloud AI, pierwsze tego rodzaju rozwiązanie, które zapewnia integrację rozwiązań AI, sieciowych i software’owych firmy NVIDIA z pamięcią masową, rozwiązaniami obliczeniowymi i chmurowymi HPE GreenLake. Od teraz, firmy dowolnej wielkości mogą wejść na energooszczędną, szybką i elastyczną ścieżkę zrównoważonego opracowywania i wdrażania zastosowań generatywnej AI. HPE Private Cloud AI wykorzystuje kopilota AI OpsRamp pomagającego zwiększyć efektywność działań operacyjnych IT. Zawiera samoobsługowe rozwiązanie chmurowe z zarządzaniem pełnym cyklem życia i jest dostępne w czterech konfiguracjach o różnej  skali, dzięki czemu jest odpowiednie dla szerokiego zakresu zadań i przypadków użycia z wykorzystaniem AI.

Wszystkie produkty i usługi wchodzące w skład NVIDIA AI Computing by HPE zostaną wprowadzone na rynek w ramach wspólnej strategii, która obejmuje zespoły sprzedażowe i partnerów handlowych, szkolenia oraz globalną sieć integratorów systemów — w tym Deloitte, HCLTech, Infosys, TCS i Wipro — co pomoże przedsiębiorstwom z różnych branż w realizacji złożonych zadań z wykorzystaniem sztucznej inteligencji.

Nowe rozwiązanie zostało ogłoszone podczas wydarzenia HPE Discover przez CEO HPE Antonio Neriego oraz założyciela i CEO firmy NVIDIA, Jensena Huanga. NVIDIA AI Computing by HPE to wynik poszerzonego, wieloletniego partnerstwa i zaangażowania obu firm.

“Generatywna AI ma ogromny potencjał, by przyspieszyć transformację biznesu. Jednak poziom skomplikowania obecnych technologii AI wiąże się ze zbyt wieloma ryzykami i barierami, które spowalniają ich powszechną adopcję w przedsiębiorstwach i mogą zagrozić najcenniejszemu majątkowi firmy, jakim są jej danepowiedział Antonio Neri. „Aby uwolnić ogromny potencjał generatywnej AI, HPE i NVIDIA wspólnie opracowały chmurę prywatną pod kątem sztucznej inteligencji, umożliwiając firmom skoncentrowanie się na opracowywaniu nowych przypadków użycia AI na rzecz zwiększenia produktywności i wykorzystania nowych strumieni przychodów”.
„Generatywna sztuczna inteligencja i szybsze obliczenia umożliwiają kompleksową transformację, ponieważ do rewolucji dołączają wszystkie branże” – powiedział Jensen Huang. „NVIDIA i HPE jeszcze nigdy tak głęboko nie zintegrowały swoich technologii. Dziś, łącząc cały stos obliczeniowy NVIDIA AI z technologią chmury prywatnej HPE, jesteśmy w stanie wyposażyć klientów korporacyjnych i specjalistów zajmujących się AI w najbardziej zaawansowaną infrastrukturę obliczeniową i usługi pozwalające poszerzyć granice zastosowań sztucznej inteligencji”.

HPE_NVIDIA_grafika 2

Wspólna oferta Private Cloud AI od HPE i NVIDIA

HPE Private Cloud AI to unikalne, oparte na chmurze rozwiązanie przyspieszające wprowadzanie innowacji i pozwalające szybciej uzyskać zwrot z inwestycji przy jednoczesnym zarządzaniu ryzykiem przedsiębiorstwa wynikającym ze stosowania sztucznej inteligencji. Rozwiązanie obejmuje takie elementy, jak:

●      Obsługa wnioskowania, dostrajania i obciążeń RAG AI, które wykorzystują poufne dane.
●      Kontrola w zakresie prywatności danych, bezpieczeństwa, przejrzystości i governance.
●      Chmura z funkcjami ITOps i AIOps w celu zwiększenia produktywności.
●      Szybka ścieżka do elastycznego użytkowania, pozwalająca przygotować się na przyszły rozwój sztucznej inteligencji i związanych z nią możliwości.

Wyselekcjonowany stos oprogramowania do AI i danych w HPE Private Cloud AI

Podstawą proponowanego stosu oprogramowania do AI i danych jest platforma software’owa NVIDIA AI Enterprise, która zawiera również mikrousługi wnioskowania NVIDIA NIM™.
Platforma software’owa NVIDIA AI Enterprise przyspiesza analizę danych i usprawnia opracowywanie i wdrażanie do produkcji co-pilotów oraz innych zastosowań GenAI. NVIDIA NIM dostarcza łatwe w użyciu mikrousługi optymalizujące wydajność wnioskowania i zapewniające płynne przejście od prototypu do wdrożenia produkcyjnego modeli AI do różnych zastosowań.

Oprogramowanie HPE AI Essential stanowi uzupełnienie dla NVIDIA AI Enterprise i NVIDIA NIM. Jest to gotowy do użycia zestaw wyselekcjonowanych narzędzi do AI i danych, które zapewniają elastyczne rozwiązania, ciągłe wsparcie i usługi takie jak np. compliance dla danych i modeli czy funkcje zapewniające zgodność, przejrzystość i powtarzalność w całym cyklu życia AI.
Aby zapewnić optymalną wydajność oprogramowania do AI i danych, HPE Private Cloud AI zapewnia w pełni zintegrowany stos infrastruktury dla AI, w tym rozwiązanie sieciowe NVIDIA Spectrum-X™ Ethernet, HPE GreenLake for File Storage i serwery HPE ProLiant z wsparciem dla platform NVIDIA L40S, NVIDIA H100 NVL Tensor Core i GH200 NVL2.

Doświadczenie chmurowe bazujące na HPE GreenLake

HPE Private Cloud AI to samoobsługowe doświadczenie chmurowe bazujące na HPE GreenLake. Dzięki pojedynczej, bazującej na platformie płaszczyźnie sterowania, usługi w chmurze HPE Greenlake zapewniają zarządzalność i obserwowalność pozwalające na automatyzację, orkiestrację i zarządzanie punktami końcowymi, obciążeniami roboczymi i danymi w środowiskach hybrydowych. Obejmują one m.in. wskaźniki zrównoważonego rozwoju dla obciążeń roboczych i punktów końcowych.

Wgląd w chmurę HPE GreenLake i OpsRamp AI dzięki asystentowi co-pilota

Działanie OpsRamp AI jest zintegrowane z chmurą HPE GreenLake, aby zapewnić obserwowalność i AIOps dla wszystkich produktów i usług HPE. OpsRamp zapewnia teraz obserwowalność dla całego stosu obliczeniowego NVIDIA, w tym dla oprogramowania NVIDIA NIM i AI, procesorów graficznych NVIDIA Tensor Core i klastrów AI, a także dla przełączników NVIDIA Quantum InfiniBand i NVIDIA Spectrum Ethernet. Administratorzy IT uzyskują wyniki analiz pozwalające na identyfikację anomalii i monitorowanie infrastruktury i obciążeń opartych na AI w hybrydowych środowiskach wielochmurowych.

Nowy co-pilot OpsRamp wykorzystuje platformę obliczeniową NVIDIA do interpretacji dużych zestawów danych, której wyniki są prezentowane przez asystenta konwersacyjnego pozwalającego na zwiększenie efektywności zarządzania operacyjnego. OpsRamp będzie również zintegrowany z interfejsami API CrowdStrike, udostępniając jednolity widok mapy usług bezpieczeństwa punktów końcowych w całej swojej infrastrukturze i aplikacjach.

Szybsze generowanie wartości dzięki sztucznej inteligencji – rozszerzona współpraca z globalnymi integratorami systemów

Aby skrócić czas zwrotu z inwestycji w firmach opracowujących rozwiązania i zastosowania AI dla poszczególnych branż, firmy Deloitte, HCLTech, Infosys, TCS i WIPRO ogłosiły wsparcie dla NVIDIA AI Computing by HPE i HPE Private Cloud AI w ramach swoich strategicznych rozwiązań i usług dla AI.

HPE dodaje obsługę najnowszych GPU, CPU i superchipów firmy NVIDIA
●      HPE Cray XD670 obsługuje osiem procesorów graficznych NVIDIA H200 NVL Tensor Core i jest idealny dla twórców LLM.
●      Serwer HPE ProLiant DL384 Gen12 z NVIDIA GH200 NVL2 jest idealny dla użytkowników LLM korzystających z dużych modeli i RAG.
●      Serwer HPE ProLiant DL380a Gen12 obsługuje do ośmiu procesorów graficznych NVIDIA H200 NVL Tensor Core i jest idealny dla użytkowników LLM potrzebujących elastycznej skalowalności swoich obciążeń roboczych GenAI.
●      HPE będzie wspierać NVIDIA GB200 NVL72 / NVL2, a także nowe architektury NVIDIA Blackwell, NVIDIA Rubin i NVIDIA Vera.

Pamięć masowa o dużej gęstości certyfikowana dla systemów NVIDIA DGX BasePOD i NVIDIA OVX

HPE GreenLake for File Storage uzyskał certyfikację NVIDIA DGX BasePOD i walidację pamięci masowej NVIDIA OVX™, a więc stanowi sprawdzone rozwiązanie do przechowywania plików, które pozwala szybciej przetwarzać duże zadania związane z AI, GenAI i obciążeniami wykorzystującymi procesory graficzne. HPE wprowadza to rozwiązanie równocześnie z zapowiedzianymi programami certyfikacji pamięci masowej dla architektury referencyjnej.

Dostępność

●      Rozwiązanie HPE Private Cloud AI ma być powszechnie dostępne jesienią 2024 r.
●      Serwer HPE ProLiant DL380a Gen12 z procesorami graficznymi NVIDIA H200 NVL Tensor Core ma być powszechnie dostępny jesienią 2024 r..
●      Serwer HPE ProLiant DL384 Gen12 z podwójnym NVIDIA GH200 NVL2 ma być powszechnie dostępny jesienią 2024 r.
●      Serwer HPE Cray XD670 z NVIDIA H200 NVL ma być powszechnie dostępny latem 2024 r.