Snowflake ogłasza partnerstwo z Mistral AI

Snowflake nawiązał strategiczne partnerstwo z Mistral AI, aby udostępnić zaawansowane modele językowe Mistral AI klientom Snowflake. To wieloletnie partnerstwo, wzmocnione inwestycją Snowflake Ventures w Mistral AI, ma na celu umożliwienie przedsiębiorstwom efektywnego wykorzystania dużych modeli językowych (LLM), zapewniając jednocześnie wysoki poziom bezpieczeństwa i prywatności danych.

Klaudia Ciesielska
Klaudia Ciesielska - Redaktor prowadzący Brandsit
5 min

Snowflake, firma oferująca Chmurę Danych, i Mistral AI, jeden z wiodących europejskich dostawców rozwiązań AI, ogłosiły globalne partnerstwo w celu udostępnienia najpotężniejszych modeli językowych Mistral AI bezpośrednio klientom Snowflake w autorskiej Chmurze Danych firmy. Za sprawą tego wieloletniego partnerstwa, które obejmuje równoległą inwestycję w akcje serii A firmy Mistral przez Snowflake Ventures, Mistral AI i Snowflake zapewnią przedsiębiorstwom narzędzia potrzebne do płynnego wykorzystania mocy dużych modeli językowych (LLM), przy jednoczesnym zachowaniu bezpieczeństwa, prywatności i możliwości zarządzania ich najcenniejszym zasobem – danymi.

Dzięki partnerstwu z Mistral AI, klienci Snowflake uzyskają dostęp do najnowszego i najpotężniejszego modelu firmy, Mistral Large, będącego jednym z najbardziej wydajnych LLM-ów na świecie. Nowy flagowy model Mistral AI ma unikalne zdolności rozumowania, jest biegły w kodowaniu i matematyce oraz biegle posługuje się pięcioma językami – francuskim, angielskim, niemieckim, hiszpańskim i włoskim – zgodnie z zaangażowaniem Mistral AI w promowanie kulturowej i językowej specyfiki technologii generatywnej sztucznej inteligencji. Model może również przetwarzać setki stron dokumentów podczas jednego połączenia. Ponadto klienci Snowflake uzyskają dostęp do Mixtral 8x7B, modelu open source Mistral AI, który przewyższa GPT3.5 OpenAI pod względem szybkości i jakości w większości testów porównawczych, oraz Mistral 7B, pierwszego modelu podstawowego Mistral AI zoptymalizowanego pod kątem niskiego opóźnienia przy niewielkim zapotrzebowaniu na pamięć i relatywnie wysokiej przepustowości. Modele Mistral AI są teraz dostępne dla klientów w publicznej wersji zapoznawczej jako część Snowflake Cortex, w pełni zarządzanej usługi LLM i wyszukiwania wektorowego, która umożliwia organizacjom przyspieszenie analiz i szybkie tworzenie aplikacji AI w bezpieczny sposób z wykorzystaniem danych przedsiębiorstwa.

 – Współpracując z Mistral AI, Snowflake oddaje jeden z najpotężniejszych LLM-ów na rynku bezpośrednio w ręce klientów, umożliwiając każdemu użytkownikowi tworzenie najnowocześniejszych aplikacji opartych na sztucznej inteligencji w prosty i skalowalny sposóbmówi Sridhar Ramaswamy, CEO Snowflake. Na bazie Snowflake jako godnego zaufania fundamentu danych, zmieniamy sposób, w jaki przedsiębiorstwa wykorzystują moc LLM-ów za pośrednictwem Snowflake Cortex, dzięki czemu mogą w efektywny kosztowo sposób adresować nowe przypadki użycia AI. Wszystko to w granicach bezpieczeństwa i prywatności, jakie gwarantuje nasza Chmura Danych.

 – Zobowiązania Snowflake w zakresie bezpieczeństwa, prywatności i zarządzania są zgodne z ambicją Mistral AI, aby uczynić pionierską sztuczną inteligencję dostępną wszędzie i dla każdego. Mistral AI podziela wartości Snowflake w zakresie opracowywania wydajnych, pomocnych i godnych zaufania modeli AI, które usprawniają sposób, w jaki organizacje na całym świecie wykorzystują generatywną sztuczną inteligencjędodaje Arthur Mensch, CEO i współzałożyciel Mistral AI.Dzięki naszym modelom dostępnym w Chmurze Danych Snowflake jesteśmy w stanie dalej demokratyzować sztuczną inteligencję, aby użytkownicy mogli tworzyć jeszcze bardziej wyrafinowane aplikacje AI budujące wartość w globalnej skali.

- Advertisement -

Snowflake Cortex po raz pierwszy ogłosił wsparcie dla wiodących w branży LLM-ów przeznaczonych do specjalistycznych zadań, takich jak analiza nastrojów, tłumaczenie czy opracowywanie podsumowań oraz podstawowych modeli począwszy od Llama 2 firmy Meta AI na Snowday 2023. Aby zapewnić bezserwerowe doświadczenie, które sprawia, że sztuczna inteligencja jest dostępna dla szerokiego grona użytkowników, Snowflake Cortex eliminuje konieczność złożonego zarządzania infrastrukturą GPU, współpracując z firmą NVIDIA w celu dostarczenia pełnej platformy akceleracji obliczeń, która wykorzystuje między innymi narzędzie NVIDIA Triton Inference Server.

Dzięki Snowflake Cortex LLM Functions, rozwiązaniu będącemu obecnie w publicznej wersji zapoznawczej, użytkownicy Snowflake mogą wykorzystać sztuczną inteligencję do obsługi szerokiej gamy przypadków użycia. Korzystając ze specjalistycznych funkcji, każdy użytkownik z umiejętnościami SQL może wykorzystać mniejsze LLM-y do efektywnego kosztowo rozwiązywania konkretnych zadań w ciągu kilku sekund. W przypadku bardziej złożonych przypadków użycia, programiści Python mogą przejść od koncepcji do pełnych aplikacji AI, takich jak chatboty, w ciągu kilku minut – wszystko to łącząc moc modeli podstawowych, jak choćby LLM firmy Mistral AI w Snowflake Cortex, z elementami czatu w ramach Streamlit in Snowflake. To usprawnione doświadczenie dotyczy również wykorzystania techniki RAG ze zintegrowanymi funkcjami wektorowymi Snowflake i wektorowymi typami danych, przy jednoczesnym zapewnieniu, że dane nigdy nie opuszczą obwodu bezpieczeństwa i zarządzania Snowflake. 

Snowflake jest zaangażowany w rozwój innowacji w zakresie sztucznej inteligencji nie tylko dla swoich klientów i ekosystemu Chmury Danych, ale także dla szerszej społeczności technologicznej. W rezultacie firma dołączyła niedawno do AI Alliance, międzynarodowej społeczności programistów, badaczy i organizacji zajmujących się promowaniem otwartej, bezpiecznej i odpowiedzialnej sztucznej inteligencji. Poprzez AI Alliance, Snowflake będzie nadal kompleksowo i otwarcie zajmować się zarówno wyzwaniami, jak i możliwościami, jakie daje sztuczna inteligencja w celu dalszej demokratyzacji płynących z tej technologii korzyści.

Udostępnij
- REKLAMA -