Red Hat rozbudowuje AI dla chmury hybrydowej. Nowe wersje OpenShift i RHEL

Red Hat wzmacnia swoje portfolio narzędzi AI, kierując je do organizacji budujących rozwiązania w modelu chmury hybrydowej. Najnowsze aktualizacje OpenShift AI i RHEL AI koncentrują się na wydajności, personalizacji modeli i zwiększeniu kontroli nad środowiskiem sztucznej inteligencji.

Natalia Zębacka

Red Hat kontynuuje rozbudowę swojego portfolio narzędzi do zarządzania sztuczną inteligencją, koncentrując się na integracji z infrastrukturą chmury hybrydowej i zwiększaniu kontroli nad rozwojem modeli AI. Firma udostępniła właśnie nowe wersje Red Hat OpenShift AI (2.18) oraz Red Hat Enterprise Linux AI (1.4), adresując rosnące zapotrzebowanie na skalowalne, bezpieczne środowiska do pracy z modelami językowymi i uczeniem maszynowym.

Red Hat wyraźnie stawia na budowanie otwartego, kontrolowanego i zgodnego z regulacjami podejścia do sztucznej inteligencji – zarówno na poziomie technologii, jak i kompetencji użytkowników. W przeciwieństwie do czysto chmurowych platform AI, jego propozycja wyróżnia się elastycznością i naciskiem na adaptację modeli do lokalnych danych i warunków. Dla partnerów kanałowych oznacza to szansę na nowe projekty wdrożeniowe – zwłaszcza w sektorach, które cenią sobie przewidywalność, bezpieczeństwo i pełną kontrolę nad infrastrukturą AI.

Szybsze, bardziej elastyczne OpenShift AI

Wersja 2.18 OpenShift AI przynosi kilka usprawnień, które mają uprościć pracę zespołów zajmujących się MLOps i LLMOps. Jedną z ważniejszych nowości jest integracja z serwerem wnioskowania vLLM, co umożliwia rozproszoną obsługę dużych modeli AI. Dzięki wykorzystaniu wielu GPU, przetwarzanie danych i generowanie wyników staje się szybsze i bardziej wydajne – co może mieć znaczenie dla firm planujących wdrożenia generatywnej AI na większą skalę.

Platforma zyskuje też nowe narzędzia do personalizacji modeli. Moduł InstructLab, zintegrowany z pipeline’ami OpenShift AI, upraszcza proces dostosowywania modeli do specyfiki danych firmowych, bez konieczności budowania wszystkiego od podstaw. Dodatkowo pojawiają się tzw. poręcze AI – mechanizmy ograniczające ryzyko generowania niepożądanych treści lub ujawniania poufnych informacji.

Ad imageAd image

Organizacje zainteresowane oceną jakości modeli mogą teraz skorzystać z narzędzia lm-eval, które pozwala na ich testowanie pod kątem rozumienia tekstu czy zdolności logicznego wnioskowania.

RHEL AI z mocniejszym modelem i nowym interfejsem

Równolegle Red Hat udostępnia aktualizację RHEL AI – lekkiego środowiska AI opartego na CentOS Stream i zoptymalizowanego pod kątem edge computingu oraz lokalnych wdrożeń. Wersja 1.4 wprowadza obsługę nowego modelu Granite 3.1 8B, który oferuje zwiększone okno kontekstowe i obsługę wielu języków. To kolejny krok w stronę bardziej uniwersalnych modeli, lepiej dopasowanych do zróżnicowanych przypadków użycia.

Nowością jest również graficzny interfejs do eksploracji danych oraz narzędzie DK-bench, służące do porównywania modeli pod kątem wydajności i jakości wyników.

InstructLab w IBM Cloud i nowa oferta szkoleń

Wiosną Red Hat udostępni InstructLab także w IBM Cloud, oferując klientom dodatkową przestrzeń do bezpiecznego trenowania i wdrażania modeli. Rozwiązanie ma zapewniać pełną kontrolę nad danymi i być alternatywą dla organizacji, które z różnych względów unikają publicznych środowisk AI-as-a-Service.

Dla klientów zainteresowanych rozwinięciem kompetencji AI, Red Hat przygotował bezpłatne szkolenie AI Foundations – skierowane zarówno do osób zaczynających pracę z AI, jak i tych, którzy chcą pogłębić wiedzę i poznać najlepsze praktyki wdrożeniowe.

Udostępnij