PKO BP wchodzi w open-source AI. Udostępnia wyspecjalizowany model językowy

Jako pierwszy bank w Polsce, PKO Bank Polski dołączył do globalnej platformy AI Hugging Face, udostępniając publicznie własny, wyspecjalizowany model językowy. Ten ruch sygnalizuje strategiczną zmianę w podejściu instytucji finansowych do technologii, przechodząc od roli pasywnego konsumenta do aktywnego współtwórcy ekosystemu sztucznej inteligencji.

2 Min
ai, pko
Source: Freepik

PKO Bank Polski, największy bank w kraju, dołączył do globalnej platformy open-source AI Hugging Face. To ruch sygnalizujący zmianę w podejściu do rozwoju technologii przez duże instytucje finansowe – od konsumpcji gotowych rozwiązań do aktywnego współtworzenia ekosystemu.

Bank jest pierwszą taką instytucją w Polsce i jedną z nielicznych w Europie, która zdecydowała się na udostępnienie własnego narzędzia w otwartym modelu.

Na swoim profilu w Hugging Face bank opublikował model oparty na architekturze RoBERTa.

Jego kluczową cechą jest szerokie okno kontekstowe, pozwalające na analizę dokumentów o objętości do 15 stron A4. To pierwszy tego typu model wytrenowany dla języka polskiego.

W przeciwieństwie do wielkoskalowych modeli generatywnych, takich jak GPT, mniejsze i wyspecjalizowane narzędzia tego typu są zoptymalizowane do konkretnych zadań. Sprawdzają się w klasyfikacji tekstu, ekstrakcji informacji czy przeszukiwaniu baz dokumentów.

Ich przewagą jest niższy koszt utrzymania i trenowania oraz, w dedykowanych zastosowaniach, wyższa precyzja. Bank podkreśla, że celem jest dostarczenie polskim programistom i naukowcom narzędzi dopasowanych do lokalnej specyfiki językowej i prawnej.

Model powstał we współpracy z naukowcami z Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI). Podkreśla to szerszy trend, w którym sektor prywatny łączy siły z jednostkami badawczymi, aby przyspieszyć komercjalizację innowacji i budować przewagi konkurencyjne w oparciu o zaawansowane technologie.

Działania PKO BP nie ograniczają się do publikacji modeli. Bank już teraz wykorzystuje wewnętrznie wyszukiwarkę semantyczną opartą na polskich modelach językowych z projektu PLLuM (Polish Large Language Model).

Narzędzie ułatwia pracownikom dostęp do wewnętrznych regulacji i procedur, co ma przekładać się na jakość obsługi klienta i efektywność operacyjną. Inicjatywa ta wpisuje się w strategię budowania niezależności technologicznej i rozwijania wewnętrznych kompetencji w kluczowym obszarze, jakim staje się sztuczna inteligencja.

Krok w stronę open-source to sygnał, że polski rynek AI staje się coraz bardziej dojrzały.

Udostępnij