Liderzy ds. prawnych i zgodności powinni zająć się narażeniem swojej organizacji na sześć konkretnych zagrożeń związanych z ChatGPT oraz jakie bariery należy ustanowić, aby zapewnić odpowiedzialne korzystanie z generatywnych narzędzi sztucznej inteligencji w przedsiębiorstwie, według firmy Gartner.
Sześć rodzajów ryzyka ChatGPT, które liderzy ds. prawnych i zgodności powinni ocenić, obejmują:
Ryzyko 1 – sfabrykowane i niedokładne odpowiedzi
Być może najczęstszym problemem związanym z ChatGPT i innymi narzędziami LLM jest tendencja do dostarczania nieprawidłowych – choć pozornie wiarygodnych – informacji.
„ChatGPT jest również podatny na„ halucynacje ”, w tym sfabrykowane odpowiedzi, które są błędne, oraz nieistniejące cytaty prawne lub naukowe” — powiedział Ron Friedmann , starszy analityk w dziale prawnym i zgodności firmy Gartner „Liderzy ds. prawnych i zgodności powinni wydać wytyczne, które wymagają od pracowników przeglądu wszelkich danych wyjściowych generowanych przez ChatGPT pod kątem dokładności, stosowności i faktycznej użyteczności przed ich zaakceptowaniem”.
Ryzyko 2 – Prywatność i poufność danych
Liderzy ds. prawnych i zgodności powinni mieć świadomość, że wszelkie informacje wprowadzane do ChatGPT, jeśli historia czatów nie jest wyłączona , mogą stać się częścią zestawu danych szkoleniowych.
„Wrażliwe, zastrzeżone lub poufne informacje użyte w monitach mogą zostać włączone do odpowiedzi dla użytkowników spoza przedsiębiorstwa” — powiedział Friedmann. „Prawo i zgodność wymagają ustanowienia ram zgodności dla korzystania z ChatGPT i wyraźnego zakazu wprowadzania poufnych danych organizacyjnych lub osobowych do publicznych narzędzi LLM”.
Ryzyko 3 – stronniczość modelu i danych wyjściowych
Pomimo wysiłków OpenAI zmierzających do zminimalizowania stronniczości i dyskryminacji w ChatGPT, znane przypadki tych problemów już wystąpiły i prawdopodobnie będą się utrzymywać pomimo ciągłych, aktywnych wysiłków OpenAI i innych podmiotów mających na celu zminimalizowanie tego ryzyka .
„Całkowite wyeliminowanie stronniczości jest prawdopodobnie niemożliwe, ale przepisy prawne i zgodność muszą być na bieżąco z przepisami regulującymi stronniczość sztucznej inteligencji i upewnić się, że ich wytyczne są zgodne” – powiedział Friedmann. „Może to obejmować współpracę z ekspertami merytorycznymi w celu zapewnienia wiarygodności danych wyjściowych oraz z funkcjami audytowymi i technologicznymi w celu ustalenia kontroli jakości danych”.
Ryzyko 4 – ryzyko związane z własnością intelektualną (IP) i prawami autorskimi
W szczególności ChatGPT jest szkolony w zakresie dużej ilości danych internetowych, które prawdopodobnie zawierają materiały chronione prawem autorskim. W związku z tym jego wyniki mogą potencjalnie naruszać prawa autorskie lub ochronę własności intelektualnej.
„ChatGPT nie oferuje odniesień do źródeł ani wyjaśnień, w jaki sposób generowane są dane wyjściowe” — powiedział Friedmann. „Liderzy ds. prawnych i zgodności powinni bacznie obserwować wszelkie zmiany w prawie autorskim, które mają zastosowanie do danych wyjściowych ChatGPT i wymagać od użytkowników sprawdzania wszelkich danych wyjściowych, które generują, aby upewnić się, że nie naruszają one praw autorskich ani praw własności intelektualnej”.
Ryzyko 5 – ryzyko oszustwa cybernetycznego
Złe podmioty już teraz nadużywają ChatGPT do generowania fałszywych informacji na dużą skalę (np. fałszywych recenzji). Co więcej, aplikacje korzystające z modeli LLM, w tym ChatGPT, są również podatne na szybką iniekcję, technikę hakerską, w której złośliwe monity przeciwnika są wykorzystywane do nakłaniania modelu do wykonywania zadań, do których nie był przeznaczony, takich jak pisanie kodów złośliwego oprogramowania lub opracowywanie phishingu witryny, które przypominają dobrze znane witryny.
„Liderzy ds. prawnych i zgodności powinni koordynować działania z właścicielami zagrożeń cybernetycznych, aby ustalić, czy i kiedy należy wydać notatki służbowe personelowi zajmującemu się cyberbezpieczeństwem firmy w tej sprawie” — powiedział Friedmann. „Powinni również przeprowadzić audyt źródeł due diligence, aby zweryfikować jakość ich informacji”.
Ryzyko 6 – Zagrożenia związane z ochroną konsumentów
Firmy, które nie ujawnią konsumentom korzystania z ChatGPT (np. w formie chatbota obsługi klienta), ryzykują utratę zaufania klientów i oskarżenie o nieuczciwe praktyki na mocy różnych przepisów. Na przykład kalifornijskie prawo dotyczące chatbotów wymaga, aby w niektórych interakcjach z konsumentami organizacje musiały jasno i wyraźnie ujawniać, że konsument komunikuje się z botem.
„Liderzy ds. prawnych i zgodności muszą zapewnić, że wykorzystanie ChatGPT w ich organizacji jest zgodne ze wszystkimi odpowiednimi regulacjami i prawami, a klientom zostały przekazane odpowiednie informacje” — powiedział Friedmann.