Naukowcy z Uniwersytetu Princeton i Uniwersytetu Stanforda opracowali technologię, która pozwala na uruchamianie dużych modeli językowych (LLM) na smartfonach i laptopach, eliminując konieczność korzystania z potężnych serwerów. Dzięki nowemu algorytmowi kompresji, nazwanemu CALDERA, użytkownicy mogą korzystać z możliwości zaawansowanej sztucznej inteligencji bez potrzeby dostępu do drogich i energochłonnych infrastruktur.
Wydajność bez utraty jakości
Technika ta polega na redukcji redundancji w danych używanych do szkolenia modeli, co zmniejsza wymagania dotyczące pamięci i mocy obliczeniowej. Efektem jest smukła wersja LLM, której skuteczność jest niemal porównywalna z pełnowymiarowymi modelami, mimo niższych zasobów technicznych. To znaczący krok naprzód, szczególnie dla urządzeń brzegowych, takich jak laptopy i smartfony, które dotąd nie mogły obsługiwać takich zaawansowanych procesów.
Bezpieczeństwo danych i niższe koszty
Ograniczenie zależności od serwerów zewnętrznych przynosi dodatkowe korzyści, w tym mniejsze ryzyko związane z przekazywaniem wrażliwych danych do zewnętrznych dostawców oraz redukcję kosztów operacyjnych. W kontekście popularnych narzędzi AI, takich jak ChatGPT, oznacza to większą dostępność sztucznej inteligencji dla indywidualnych użytkowników i organizacji, bez konieczności inwestowania w drogie serwery czy skomplikowane infrastruktury.
Premiera w grudniu
Algorytm CALDERA zostanie zaprezentowany podczas prestiżowej konferencji dotyczącej systemów neuronowych w Vancouver. Choć nowa technologia może nie oferować najwyższej możliwej precyzji w każdej aplikacji, jej potencjał w codziennych zadaniach oraz możliwość implementacji na szeroką skalę sprawiają, że może stać się kamieniem milowym w rozwoju mobilnej sztucznej inteligencji.