W najnowszym wydaniu prestiżowego czasopisma naukowego Science, grupa czołowych badaczy AI, w tym Geoffrey Hinton, Andrew Yao i Dawn Song, przedstawia poważne ostrzeżenie dotyczące przyszłości autonomicznych systemów sztucznej inteligencji. Naukowcy alarmują, że bez odpowiednich środków ostrożności, ludzkość może nieodwracalnie stracić kontrolę nad rozwijającymi się technologiami.
Autorzy artykułu wskazują na szereg potencjalnych zagrożeń, które mogą wyniknąć z niekontrolowanego rozwoju AI. Na liście ryzyk znajdują się cyberataki na dużą skalę, manipulacje społeczne, wszechobecna inwigilacja, a nawet hipotetyczne wyginięcie ludzkości. Podkreślają, że autonomiczne systemy AI, które mają zdolność do samodzielnej realizacji wyznaczonych celów, mogą również przynosić nieprzewidziane skutki uboczne.
Zjawisko to, jak tłumaczą eksperci, wynika z precyzyjnego sposobu szkolenia oprogramowania AI, które rygorystycznie przestrzega swoich specyfikacji. Problem pojawia się, kiedy te systemy zaczynają realizować cele niezgodne z zamierzeniami ich twórców. “Gdy tylko autonomiczne systemy AI zaczną realizować niechciane cele, nie będziemy już w stanie utrzymać ich pod kontrolą,” ostrzega naukowy tekst.
Ostatnie dramatyczne ostrzeżenia, które pojawiły się także w ubiegłym roku, zdają się potwierdzać, że problem nie jest nowy, ale teraz nabrał na wadze w kontekście szczytu AI w Seulu. Na tym międzynarodowym forum, amerykańskie giganty technologiczne takie jak Google, Meta i Microsoft zobowiązały się do odpowiedzialnego korzystania z technologii.
W centrum debaty znalazła się również firma OpenAI, znana z rozwoju ChatGPT. Jan Leike, były pracownik odpowiedzialny za bezpieczeństwo oprogramowania AI w OpenAI, wyraził zaniepokojenie, że w firmie „produkty błyszczące” były preferowane kosztem bezpieczeństwa. “Rozwijanie oprogramowania, które jest inteligentniejsze od ludzi, jest naturalnie niebezpiecznym przedsięwzięciem,” napisał Leike.
Sam Altman, szef OpenAI, odpowiedział na te obawy, zapewniając, że jego firma jest zaangażowana w zwiększenie wysiłków na rzecz bezpieczeństwa AI. Tymczasem Yann LeCun, szef badawczy AI w Meta, zasugerował, że potrzeba jeszcze wielu lat badań, zanim AI osiągnie poziom inteligencji ludzkiej, co pozwala na stopniowe wprowadzanie odpowiednich środków ostrożności.
Niezależnie od różnic w podejściach, jedno jest pewne: rozwój technologii AI niesie za sobą zarówno obietnice, jak i ryzyka. Niezależnie od tempa tego postępu, debata na temat etycznego i bezpiecznego korzystania z AI pozostaje kluczowa dla przyszłości zarówno technologii, jak i społeczeństwa. Jak daleko możemy pozwolić sobie na rozwój tych technologii, nie tracąc nad nimi kontroli? To pytanie, na które musimy znaleźć odpowiedź, zanim będzie za późno.