Firma Databricks ogłosiła zacieśnienie współpracy z gigantem technologicznym Nvidia, co ma na celu umożliwienie użytkownikom przyspieszenia obciążeń AI za pomocą platformy Data Intelligence Platform.
Bez AI nie ma danych, bez Nvidii nie ma AI
Na odbywającym się niedawno szczycie Data + AI, Databricks zaprezentował bliższą integrację z Nvidia, podobnie jak zrobił to tydzień wcześniej ich konkurent, Snowflake. Obie firmy dążą do tego, by użytkownicy mieli bezpośredni dostęp do niezbędnego sprzętu do obsługi obciążeń AI bezpośrednio z platformy. Nowe partnerstwo podkreśla strategiczne podejście Databricks do integracji technologii Nvidia CUDA w ramach swojej platformy Data Intelligence Platform, co ma na celu zwiększenie wydajności zadań związanych ze sztuczną inteligencją w zakresie danych biznesowych.
Nvidia CUDA w sercu platformy Databricks
Databricks zamierza zintegrować technologię Nvidia CUDA z ich silnikiem Photon-query, co pozwoli na znaczne przyspieszenie przetwarzania danych i obciążeń AI. To rozwiązanie ma na celu poprawę efektywności pracy użytkowników bez zwiększania kosztów operacyjnych. Integracja ta jest kluczowym elementem strategii Databricks, mającym na celu dostarczenie klientom bardziej wydajnych narzędzi do przetwarzania i analizy danych.
Własny model LLM: DBRX
Databricks wcześniej uruchomił własny model językowy (LLM) – DBRX, który jest odpowiednikiem modelu Mixture of Experts (MoE) konkurencyjnego Snowflake. DBRX jest dostępny jako mikrousługa w ramach Nvidia NIM (Nvidia Inference Model). To posunięcie stanowi istotny krok w rozwijaniu możliwości generatywnej sztucznej inteligencji w ramach platformy Databricks.
W zeszłym tygodniu Jensen Huang wirtualnie uczestniczył w wydarzeniu w Moscone Center w San Francisco, gdzie omawiał podobną współpracę Nvidii ze Snowflake. Ta seria ogłoszeń wskazuje na rosnące znaczenie ścisłej integracji sprzętu i oprogramowania w zakresie sztucznej inteligencji.