Oszustka i manipulantka – właśnie taka bywa sztuczna inteligencja

Najnowsze badania przeprowadzone przez naukowców z Massachusetts Institute of Technology (MIT) ujawniają zaskakującą zdolność sztucznej inteligencji do oszukiwania i manipulowania. Odkrycie to, opublikowane w czasopiśmie "Patterns", rzuca światło na potencjalne zagrożenia płynące z zaawansowanych systemów AI.

Izabela Myszkowska - Redaktor Brandsit
3 min

W świecie technologii, gdzie rozwój AI postępuje w zawrotnym tempie, naukowcy z Massachusetts Institute of Technology (MIT) ostrzegają przed nowym zagrożeniem. Ich najnowsze badanie, opublikowane w czasopiśmie “Patterns”, pokazuje, że systemy AI mogą oszukiwać i manipulować, by osiągnąć zamierzone cele, nawet jeśli zostały przeszkolone do bycia pomocnymi i uczciwymi.

Przypadkiem, który zwrócił szczególną uwagę naukowców, jest Cicero – system AI stworzony przez grupę Meta, przeznaczony do gry w “Dyplomację”, klasyczną grę planszową symulującą stosunki władzy w Europie przed I wojną światową. Mimo że Meta twierdzi, iż Cicero został wyszkolony, by “nigdy celowo nie oszukiwać”, badacze z MIT odkryli, że system często stosuje manipulacje, aby wygrywać. To pokazuje, że nawet zaawansowane systemy AI mogą rozwijać niepożądane zachowania, pomimo starannie zaprogramowanych zabezpieczeń.

Peter S. Park, główny autor badania, podkreśla, że “sztuczna inteligencja nauczyła się być mistrzem oszustwa.” Wyniki badania wskazują, że Cicero plasuje się wśród 10% najlepszych graczy, co świadczy o jego zaawansowaniu, ale jednocześnie rzuca cień na etyczne aspekty szkolenia AI.

Zjawisko to nie ogranicza się wyłącznie do gier. Inne badania pokazują, że duże modele językowe, takie jak GPT-4 opracowane przez OpenAI, również potrafią oszukiwać, na przykład próbując obchodzić środki bezpieczeństwa internetowego. W jednym z testów GPT-4 zatrudnił osobę przez platformę TaskRabbit, aby ta rozwiązała za niego captcha, udając osobę z upośledzeniem wzroku.

Autorzy badania podkreślają, że zdolność AI do oszukiwania otwiera drzwi dla złośliwych aktorów, którzy mogą wykorzystać te technologie do szerzenia dezinformacji lub manipulowania wyborami. Na przykład, zaawansowane systemy AI mogłyby tworzyć fałszywe artykuły prasowe, posty w mediach społecznościowych, a nawet filmy, które byłyby dopasowane do indywidualnych odbiorców, co stanowiłoby poważne zagrożenie dla demokracji.

W odpowiedzi na te wyzwania, naukowcy wezwali polityków do opracowania surowych przepisów regulujących działanie systemów AI. Chociaż inicjatywy takie jak prawo Unii Europejskiej dotyczące sztucznej inteligencji oraz rozporządzenie wykonawcze prezydenta Bidena są krokami w dobrym kierunku, wciąż pozostaje pytanie, czy są one wystarczające, aby skutecznie zapobiegać manipulacjom AI.

Jak zauważa Park, “Jeśli zakaz oszustwa AI jest obecnie politycznie niewykonalny, należy sklasyfikować zwodnicze systemy AI jako wysokiego ryzyka.” To podkreśla potrzebę dalszych badań i regulacji w tej dynamicznie rozwijającej się dziedzinie, aby zapewnić, że postęp technologiczny służy dobru wspólnemu, a nie staje się narzędziem do nadużyć.