Sam Altman już mówi o “superinteligencji” – entuzjazm vs. brak kontroli nad AI

Sam Altman, szef OpenAI, przedstawia ambitną wizję rozwoju sztucznej inteligencji, kierując firmę ku stworzeniu superinteligencji, która miałaby przewyższyć ludzką inteligencję. Jednak jego entuzjazm może przyćmić brak odpowiednich rozwiązań dotyczących bezpieczeństwa i kontroli nad tak potężną technologią, co budzi uzasadnione wątpliwości.

Sam Altman, OpenAI / źródło: IDEAS NCBR
2 min

Choć sztuczna inteligencja ogólna (AGI) – systemy zdolne do nauki i rozumowania w różnych dziedzinach na poziomie ludzkim – jeszcze nie istnieje, Sam Altman, dyrektor generalny OpenAI, już kieruje wzrok ku przyszłości, mówiąc o “superinteligencji”. Termin ten odnosi się do AI, która przewyższa ludzką inteligencję w niemal każdej dziedzinie, mając potencjał do znaczących postępów w nauce i technologii.

Altman, który przewodzi OpenAI, twierdzi, że firma już wie, jak zbudować AGI, a celem OpenAI jest teraz rozwój superinteligencji. W jego opinii, takie narzędzia mogłyby przyspieszyć odkrycia naukowe i innowacje, przynosząc znaczne korzyści ekonomiczne i społeczne.

Choć perspektywa stworzenia AI o wyższej inteligencji niż człowiek może wydawać się odległa, Altman jest przekonany, że w ciągu kilku lat osiągnięcia w tej dziedzinie będą wyraźnie widoczne. Jak wynika z raportów, OpenAI opracowało pięciostopniowy system oceny postępów w rozwoju superinteligentnej AI. Pierwszy etap obejmuje już dostępną konwersacyjną sztuczną inteligencję, kolejny to rozumowanie, a trzeci to autonomia, czyli agenci działający w imieniu użytkownika. Celem jest stworzenie AI, która sama będzie w stanie rozwijać innowacje.

REKLAMA

Jednak nie wszystko w tej wizji jest jednoznacznie pozytywne. W przeszłości OpenAI wyraziło obawy dotyczące potencjalnych zagrożeń związanych z superinteligencją. Firma przyznała, że kontrolowanie tak zaawansowanej AI stanowi ogromne wyzwanie, a w kontekście bezpieczeństwa technologii, OpenAI rozwiązało zespoły zajmujące się nadzorem nad AI. Te obawy podkreślają konieczność dalszego rozwoju metod kontrolowania i nadzorowania AI, aby uniknąć nieprzewidywalnych i niepożądanych skutków.

Choć Altman pozostaje optymistą, mówi, że to, co teraz może brzmieć jak science fiction, wkrótce stanie się rzeczywistością. Jednak wiele pytań dotyczących bezpieczeństwa i nadzoru nad tak potężną technologią wciąż pozostaje otwartych.