Snowflake ogłosił na konferencji Nvidia GTC rozszerzoną współpracę z firmą Nvidia. Jej efektem będzie wzmocnienie pozycji klientów korporacyjnych dzięki platformie AI, która połączy platformę full-stack Nvidia z zaufanym fundamentem danych i bezpieczną sztuczną inteligencją Chmury Danych Snowflake.
– Dane są paliwem dla sztucznej inteligencji, co czyni je niezbędnymi do ustanowienia skutecznej strategii AI – zauważa Sridhar Ramaswamy, CEO Snowflake. – Nasze partnerstwo z firmą Nvidia zapewnia bezpieczną, skalowalną i łatwą w użyciu platformę dla zaufanych danych przedsiębiorstwa. Eliminujemy złożoność sztucznej inteligencji, umożliwiając użytkownikom wszystkich typów, niezależnie od ich wiedzy technicznej, szybkie i łatwe czerpanie korzyści z AI.
– Dane korporacyjne stanowią podstawę niestandardowych aplikacji AI, które mogą dostarczać wiedzę i ujawniać nowe spostrzeżenia – mówi Jensen Huang, założyciel i CEO Nvidia. – Wprowadzenie akcelerowanych obliczeń i oprogramowania Nvidia do platformy danych Snowflake pozwoli przyspieszyć wdrażanie sztucznej inteligencji w przedsiębiorstwach, pomagając klientom w tworzeniu, uruchamianiu i zarządzaniu bezpiecznymi aplikacjami GenAI.
Nvidia NeMo w Chmurze Danych
Rozszerzając wcześniej ogłoszoną przez Snowflake i Nvidia integrację Nvidia NeMo™, klienci Snowflake będą wkrótce mogli wykorzystywać Nvidia NeMo Retriever bezpośrednio na swoich danych w Chmurze Danych. Wszystko to przy jednoczesnym zachowaniu bezpieczeństwa, prywatności i zarządzania dzięki wbudowanym funkcjom Snowflake.
NeMo Retriever zwiększa wydajność i skalowalność aplikacji typu chatbot, pozwalając skrócić czas uzyskania wartości dla ponad 400 przedsiębiorstw już tworzących aplikacje AI za pomocą Snowflake Cortex (niektóre funkcje w wersji zapoznawczej), w pełni zarządzanego dużego modelu językowego (LLM) firmy Snowflake i usługi wyszukiwania wektorowego. Rozszerzona współpraca z Nvidia obejmie również dostęp do oprogramowania Nvidia TensorRT™ zapewniającego najmniejsze opóźnienia i wysoką przepustowość dla aplikacji głębokiego uczenia się w celu zwiększenia możliwości wyszukiwania opartego na LLM.
Nowe moce obliczeniowe w produktach Snowflake
Akcelerowane moce obliczeniowe Nvidia zasilają kilka produktów AI firmy Snowflake, w tym Snowpark Container Services, a także:
- Snowflake Cortex LLM Functions (publiczna wersja zapoznawcza): Dzięki Snowflake Cortex LLM Functions użytkownicy z umiejętnościami SQL mogą wykorzystywać mniejsze LLM-y do efektywnego kosztowo rozwiązywania określonych zadań, w tym analizy nastrojów, tłumaczenia i podsumowywania w ciągu sekund. Bardziej zaawansowane przypadki użycia obejmują tworzenie aplikacji AI w ciągu kilku minut przy użyciu wydajnych modeli Mistral AI, Meta i innych.
- Snowflake Copilot (prywatna wersja zapoznawcza): Napędzany przez duże modele językowe asystent Snowflake, Snowflake Copilot, wprowadza generatywną sztuczną inteligencję do codziennych zadań kodowania za pomocą języka naturalnego. Użytkownicy mogą zadawać pytania dotyczące swoich danych w postaci zwykłego tekstu, tworzyć zapytania SQL w odniesieniu do odpowiednich zestawów danych, czy udoskonalać zapytania i filtrować otrzymane spostrzeżenia.
- Document AI (prywatna wersja zapoznawcza): Document AI pomaga przedsiębiorstwom wykorzystywać LLM-y do łatwego wyodrębniania treści, takich jak kwoty faktur lub warunki umowne z dokumentów i dostosowywania wyników za sprawą interfejsu wizualnego, przy pomocy języka naturalnego. Klienci korzystają z Document AI, aby wspierać swoje zespoły w zmniejszaniu liczby ręcznych błędów i zwiększać wydajność dzięki zautomatyzowanemu przetwarzaniu dokumentów.