Mobilna AI bez serwerów? Jak kompresja zmienia technologię

Naukowcy z Princeton i Stanforda opracowali technologię, która umożliwia działanie dużych modeli językowych (LLM) na smartfonach i laptopach bez potrzeby korzystania z serwerów zewnętrznych. Dzięki algorytmowi kompresji CALDERA sztuczna inteligencja staje się bardziej dostępna, wydajna i bezpieczna dla użytkowników indywidualnych i firm.

Autor: phonlamaiphoto / Adobe Stock
Kuba Kowalczyk
2 min

Naukowcy z Uniwersytetu Princeton i Uniwersytetu Stanforda opracowali technologię, która pozwala na uruchamianie dużych modeli językowych (LLM) na smartfonach i laptopach, eliminując konieczność korzystania z potężnych serwerów. Dzięki nowemu algorytmowi kompresji, nazwanemu CALDERA, użytkownicy mogą korzystać z możliwości zaawansowanej sztucznej inteligencji bez potrzeby dostępu do drogich i energochłonnych infrastruktur.

Wydajność bez utraty jakości

Technika ta polega na redukcji redundancji w danych używanych do szkolenia modeli, co zmniejsza wymagania dotyczące pamięci i mocy obliczeniowej. Efektem jest smukła wersja LLM, której skuteczność jest niemal porównywalna z pełnowymiarowymi modelami, mimo niższych zasobów technicznych. To znaczący krok naprzód, szczególnie dla urządzeń brzegowych, takich jak laptopy i smartfony, które dotąd nie mogły obsługiwać takich zaawansowanych procesów.

Bezpieczeństwo danych i niższe koszty

Ograniczenie zależności od serwerów zewnętrznych przynosi dodatkowe korzyści, w tym mniejsze ryzyko związane z przekazywaniem wrażliwych danych do zewnętrznych dostawców oraz redukcję kosztów operacyjnych. W kontekście popularnych narzędzi AI, takich jak ChatGPT, oznacza to większą dostępność sztucznej inteligencji dla indywidualnych użytkowników i organizacji, bez konieczności inwestowania w drogie serwery czy skomplikowane infrastruktury.

REKLAMA

Premiera w grudniu

Algorytm CALDERA zostanie zaprezentowany podczas prestiżowej konferencji dotyczącej systemów neuronowych w Vancouver. Choć nowa technologia może nie oferować najwyższej możliwej precyzji w każdej aplikacji, jej potencjał w codziennych zadaniach oraz możliwość implementacji na szeroką skalę sprawiają, że może stać się kamieniem milowym w rozwoju mobilnej sztucznej inteligencji.