OpenAI wprowadziło do użytku model o3-mini, będący mniejszą i tańszą wersją modelu o3. Nowy model jest dostępny dla użytkowników ChatGPT oraz deweloperów za pośrednictwem API, co otwiera nowe możliwości dla integracji w aplikacjach i usługach opartych na sztucznej inteligencji.
Trzy warianty API dla deweloperów
Model o3-mini został udostępniony w trzech wariantach różniących się jakością generowanych odpowiedzi: o3-mini-low, o3-mini-medium i o3-mini-high. Różnice wynikają z poziomu zasobów sprzętowych używanych do przetwarzania zapytań – wersja low jest najbardziej oszczędna, natomiast high zapewnia najwyższą jakość odpowiedzi kosztem większego wykorzystania infrastruktury.
Nowe możliwości w ChatGPT
Model o3-mini został wdrożony także do ChatGPT, gdzie dostępny jest w planach Free, Plus, Pro i Team. Wersje Plus i Team oferują użytkownikom zwiększony limit wiadomości – 150 dziennie, co stanowi trzykrotność tego, co oferował poprzedni model o1-mini. W najbliższym czasie o3-mini trafi także do planu Enterprise.
Optymalizacja szybkości i wydajności
Modele o3 cechują się wyższą jakością wnioskowania oraz większą precyzją odpowiedzi, a o3-mini oferuje przyspieszone generowanie treści przy zachowaniu podobnych opóźnień jak wcześniejszy o1-mini. To sprawia, że jest to atrakcyjna opcja dla firm i programistów poszukujących balansu między wydajnością a kosztami użytkowania.
Dzięki nowej wersji OpenAI rozszerza dostępność zaawansowanej sztucznej inteligencji, jednocześnie optymalizując jej działanie pod kątem różnych potrzeb użytkowników.