Google oficjalnie udostępniło wszystkim użytkownikom rodzinę modeli Gemini 2.5, w tym nowe wersje Pro, Flash oraz Flash-Lite. Po okresie testów zapoznawczych firma otwiera pełny dostęp do technologii, która ma odpowiadać na potrzeby szerokiego spektrum użytkowników – od dużych firm po twórców narzędzi low-code.
Najwięcej uwagi przyciąga Gemini 2.5 Flash-Lite – lekki, zoptymalizowany model przeznaczony do szybkich operacji przy minimalnym koszcie. Dzięki architekturze „mixture of experts”, każdy model korzysta tylko z części swojej infrastruktury, co znacznie obniża zużycie zasobów. Flash-Lite przetwarza polecenia jeszcze szybciej niż wersja Flash i kosztuje zaledwie 0,10 USD za milion tokenów – to dziesięć razy mniej niż flagowy Pro.
Google pozycjonuje ten model do zastosowań o niskim opóźnieniu, takich jak tłumaczenia, klasyfikacje czy przetwarzanie w czasie rzeczywistym. Jednocześnie modele 2.5 zachowują wsparcie multimodalne, obsługują do miliona tokenów i działają na autorskich chipach TPUv5p – rozwiązaniach projektowanych z myślą o skali usług Google Cloud.
Zmieniono również politykę cenową. Model Flash podrożał dwukrotnie (z 0,15 do 0,30 USD), a osobna opłata za „tryb myślenia” – opcję poprawiającą jakość wyników kosztem czasu odpowiedzi – została zniesiona. W efekcie użytkownicy otrzymują pełnię możliwości bez konieczności rozbudowanych decyzji konfiguracyjnych.
Dzięki rozszerzeniu oferty, Google jeszcze wyraźniej konkuruje z OpenAI i Anthropic, starając się zapewnić nie tylko jakość, ale też przewidywalność kosztów i dostępność dla masowego odbiorcy.