OVHcloud rzuca wyzwanie hiperskalerom. Nowa platforma AI stawia na otwartość i suwerenność danych

OVHcloud wprowadza AI Endpoints – platformę, która umożliwia łatwe wdrażanie otwartych modeli sztucznej inteligencji bez konieczności zarządzania infrastrukturą. To europejska odpowiedź na dominację amerykańskich gigantów chmurowych, stawiająca na suwerenność danych, transparentność i zgodność z regulacjami UE.

Izabela Myszkowska

Francuski dostawca chmury OVHcloud właśnie dołączył do gry o generatywną AI z produktem AI Endpoints – platformą, która w uproszczony sposób oddaje w ręce programistów ponad 40 open-source’owych modeli językowych i generatywnych, gotowych do użycia w chatbotach, automatyzacji tekstu, asystentach kodu czy aplikacjach przetwarzania mowy. W odróżnieniu od amerykańskich konkurentów, OVHcloud stawia na otwartość, lokalność i transparentność – i to może być jego największa przewaga.

Otwartość zamiast zamkniętych czarnych skrzynek

AI Endpoints działa w modelu bezserwerowym, co oznacza, że OVHcloud przejmuje odpowiedzialność za całą infrastrukturę – podobnie jak AWS czy Azure. Jednak w odróżnieniu od tych gigantów, francuska firma promuje dostęp do modeli o otwartych wagach, takich jak LLaMA 3.3 70B, Mixtral czy Qwen. Otwiera to organizacjom drzwi do realnej kontroli nad danymi i większej elastyczności: mogą testować i wdrażać modele u siebie, w chmurze OVHcloud lub przenieść je gdzie indziej. To fundamentalna różnica względem „vendor lock-in”, który dominuje u hiperskalerów.

Czy AI może być europejska?

Wdrażając AI Endpoints na własnej infrastrukturze – z centrami danych w Gravelines i innymi lokalizacjami europejskimi – OVHcloud gra kartą suwerenności cyfrowej. Dane nie opuszczają Unii Europejskiej, a całość jest zgodna z europejskimi regulacjami prywatności. Dla firm z sektorów regulowanych, takich jak bankowość, ubezpieczenia czy sektor publiczny, to kluczowy argument. Warto też zauważyć, że firma inwestuje w efektywność energetyczną, m.in. chłodzenie wodą, co dodatkowo wpisuje się w narrację o zrównoważonym rozwoju.

Segmentacja AI jako usługi

Oferta OVHcloud wpisuje się w szerszy trend segmentowania generatywnej AI: zamiast budować własny foundation model, firma skupia się na udostępnianiu gotowych, wyspecjalizowanych modeli do konkretnych zastosowań. To podejście pragmatyczne – i coraz częściej widoczne także u innych graczy, jak Hugging Face czy Replicate. AI Endpoints nie próbuje konkurować z ChatGPT, tylko umożliwia firmom szybkie uruchamianie narzędzi typu: chatbot dla klienta, parser dokumentów, lub silnik do autouzupełniania kodu.

Ad imageAd image

Ceny, piaskownice i dostępność

Model rozliczeń oparty o zużycie tokenów jest standardem w generatywnej AI i nie zaskakuje. Ciekawszy jest fakt, że OVHcloud udostępnia środowisko piaskownicy – deweloperzy mogą bez ryzyka eksperymentować z modelami zanim zdecydują się na wdrożenie produkcyjne. To obniża barierę wejścia, szczególnie dla mniejszych zespołów R&D.

AI Endpoints jest już dostępny w Europie, Kanadzie i regionie Azji i Pacyfiku, co sugeruje, że OVHcloud myśli o ekspansji – ale jego przekaz pozostaje konsekwentnie europejski.

Czy to realna alternatywa?

AI Endpoints nie zrewolucjonizuje rynku LLM, ale może zająć konkretne nisze – tam, gdzie liczy się otwartość, suwerenność danych i zgodność z europejskim prawem. OVHcloud nie musi być drugim OpenAI – wystarczy, że przekona instytucje i średnie firmy, że da się używać AI bez podporządkowania się gigantycznym, zamkniętym platformom zza oceanu.

Udostępnij