Systemy sztucznej inteligencji powinny być otwarte czy zamknięte? Administracja Bidena pochyla się nad trudnym tematem

Administracja prezydenta Joe Bidena wkroczyła w centrum kontrowersyjnej debaty dotyczącej tego, czy najbardziej zaawansowane systemy sztucznej inteligencji powinny być udostępnione jako open-source, czy pozostać zamknięte. Ta inicjatywa, mająca na celu zbadanie ryzyka i korzyści płynących z publicznego dostępu do kluczowych komponentów AI, stanowi część szerszego wysiłku na rzecz zarządzania szybko ewoluującą technologią.

Izabela Myszkowska
Izabela Myszkowska - Redaktor Brandsit
3 min

W obliczu szybkiego rozwoju technologii sztucznej inteligencji, administracja prezydenta Joe’ego Bidena wkroczyła w centrum gorącej debaty dotyczącej tego, czy najbardziej zaawansowane systemy AI powinny być udostępniane jako open-source, czy też pozostać w domenie zamkniętej. Ten krok, podkreślający potrzebę publicznego komentarza na temat ryzyka i korzyści związanych z udostępnianiem kluczowych komponentów AI, jest częścią szerszego dekretu wykonawczego mającego na celu zarządzanie ewoluującą technologią.

Podejście to wywołuje podzielone opinie wśród firm technologicznych. Z jednej strony, giganci tacy jak Meta Platforms (dawniej Facebook) i IBM są głośnymi zwolennikami otwartości, podkreślając jej znaczenie dla badaczy i startupów. Z drugiej strony, istnieją poważne obawy dotyczące bezpieczeństwa i prywatności związane z szeroką dostępnością komponentów modelu AI, co może prowadzić do nieautoryzowanego usuwania zabezpieczeń lub wykorzystywania tych systemów w nieodpowiedzialny sposób.

Ważnym aspektem tej debaty jest różnica między udostępnianiem “modeli fundamentów podwójnego zastosowania z powszechnie dostępnymi wagami” a pełną otwartością kodu źródłowego. Wagi modelu AI, będące wartościami liczbowymi determinującymi działanie systemu, mogą zostać udostępnione publicznie, co teoretycznie zwiększa innowacyjność, ale jednocześnie niesie za sobą zagrożenia bezpieczeństwa.

Google, przykładowo, preferując dotychczas bardziej zamknięte podejście, niedawno wypuścił grupę otwartych modeli nazwanych Gemma, co może sygnalizować ewolucję w myśleniu o balansie między otwartością a bezpieczeństwem. Tymczasem, argumentacja przemawiająca za otwartością opiera się na przekonaniu, że współpraca i współdzielenie wiedzy mogą przyspieszyć rozwój technologii AI, z korzyściami rozciągającymi się na szerszą społeczność.

- Advertisement -

Jednakże samo udostępnienie komponentów AI nie gwarantuje dostępności czy prostoty badania przez osoby z zewnątrz, ponieważ korzystanie z otwartych modeli wciąż wymaga znacznych zasobów, często skoncentrowanych w rękach kilku dużych firm.

Motywacje firm do wyboru między otwartością a zamknięciem są skomplikowane i wielowymiarowe. Z jednej strony, otwarte oprogramowanie może przyciągnąć wkłady zewnętrzne i przyspieszyć innowacje. Z drugiej strony, obawy związane z bezpieczeństwem mogą skłaniać firmy do zachowania kontroli nad swoimi systemami, potencjalnie wzmacniając ich pozycje na rynku.

Rozwiązaniem może być znalezienie środka, który promuje zarówno innowacje, jak i bezpieczeństwo. Debata na ten temat nie jest kwestią binarną, a istniejące gradienty otwartości mogą oferować zrównoważone podejścia, które zaspokajają różnorodne potrzeby i obawy.

Udostępnij
- REKLAMA -