Dlaczego ChatGPT robi tyle szumu na rynku sztucznej inteligencji?

Izabela Myszkowska
Izabela Myszkowska - Redaktor Brandsit
7 min

Firma OpenAI zajmująca się badaniami i wdrażaniem sztucznej inteligencji (AI) niedawno ogłosiła oficjalne uruchomienie ChatGPT , nowego modelu konwersacyjnej sztucznej inteligencji. Według OpenAI dialog zapewniany przez tę platformę umożliwia ChatGPT „odpowiadanie na dalsze pytania, przyznanie się do błędów, kwestionowanie błędnych przesłanek i odrzucanie niewłaściwych próśb”.

Od momentu premiery w mediach społecznościowych toczą się dyskusje na temat możliwości — i zagrożeń — związanych z tą nową innowacją, począwszy od jej zdolności do debugowania kodu, a skończywszy na pisaniu esejów dla studentów. Bern Elliot , wiceprezes ds. analityki w firmie Gartner omawia szersze implikacje tej innowacji oraz kroki, jakie liderzy danych i analiz (D&A) powinni podjąć, aby zapewnić odpowiedzialne korzystanie z takich narzędzi.

Dlaczego ChatGPT generuje tyle szumu i czym różni się od poprzednich innowacji w konwersacyjnej sztucznej inteligencji? 

Bern Elliot: ChatGPT to idealna burza dwóch aktualnych „gorących” tematów związanych ze sztuczną inteligencją: chatbotów i GPT3. Razem oferują cudownie intrygującą metodę interakcji i tworzenia treści, które brzmią niesamowicie po ludzku. Każdy z nich jest wynikiem odrębnych, znaczących ulepszeń, które nastąpiły w ciągu ostatnich pięciu lat w tych technologiach.

- Advertisement -

Chatboty umożliwiają interakcję w pozornie „inteligentny” sposób konwersacyjny, podczas gdy GPT3 generuje dane wyjściowe, które wydają się „zrozumieć” pytanie, treść i kontekst. Razem tworzy to niesamowity efekt konsternacji „Czy to człowiek, czy komputer?”. A może to komputer podobny do człowieka? Interakcja jest czasem zabawna, czasem głęboka, a czasem wnikliwa.

Niestety, treść jest czasami niepoprawna, a treść nigdy nie jest oparta na ludzkim zrozumieniu lub inteligencji. Problem może dotyczyć terminów „zrozumieć” i „inteligentny”. Są to terminy naładowane niejawnie ludzkim znaczeniem, więc zastosowanie ich do algorytmu może spowodować poważne nieporozumienia. Bardziej użyteczną perspektywą jest postrzeganie chatbotów i dużych modeli językowych (LLM), takich jak GPT, jako potencjalnie przydatnych narzędzi do wykonywania określonych zadań, a nie jako salonowych sztuczek. Sukces zależy od zidentyfikowania zastosowań tych technologii, które oferują organizacji znaczące korzyści.

Jakie są potencjalne możliwości użycia ChatGPT, szczególnie w przedsiębiorstwie?

Bern Elliot: Na wysokim poziomie chatboty lub asystenci konwersacji zapewniają wyselekcjonowaną interakcję ze źródłem informacji. Same chatboty mają wiele zastosowań, od obsługi klienta po pomoc technikom w identyfikowaniu problemów.

Na wysokim poziomie ChatGPT to specyficzny przypadek użycia chatbota, w którym chatbot jest używany do interakcji (czatu) lub „rozmowy” ze źródłem informacji GPT. W takim przypadku źródło informacji GPT jest szkolone dla określonej domeny przez OpenAI. Dane treningowe użyte w modelu określają sposób udzielania odpowiedzi na pytania. Jednak, jak wspomniano wcześniej, zdolność GPT do nieprzewidywalnego generowania fałszywych informacji oznacza, że ​​informacje te mogą być używane tylko w sytuacjach, w których błędy można tolerować lub poprawiać.

Istnieje wiele przypadków użycia modeli podstawowych, takich jak GPT, w dziedzinach obejmujących wizję komputerową, inżynierię oprogramowania oraz badania naukowe i rozwój. Na przykład modele fundamentów zostały użyte do stworzenia obrazów z tekstu; generować, przeglądać i audytować kod z języka naturalnego, w tym inteligentne kontrakty; a nawet w opiece zdrowotnej do tworzenia nowych leków i odszyfrowywania sekwencji genomu w celu klasyfikacji chorób.

Co z kwestiami etycznymi związanymi z ChatGPT i innymi podobnymi modelami sztucznej inteligencji? 

Bern Elliot: Podstawowe modele sztucznej inteligencji, takie jak GPT, stanowią ogromną zmianę w dziedzinie sztucznej inteligencji. Oferują wyjątkowe korzyści, takie jak ogromne obniżenie kosztów i czasu potrzebnego do stworzenia modelu specyficznego dla domeny. Wiążą się jednak również z ryzykiem i problemami natury etycznej, w tym związanymi z:

  • Złożonością: duże modele obejmują miliardy, a nawet biliony parametrów. Te modele są niepraktycznie duże do trenowania dla większości organizacji ze względu na niezbędne zasoby obliczeniowe, co może sprawić, że będą drogie i nieprzyjazne dla środowiska.
  • Koncentracją władzy: Modele te zostały zbudowane głównie przez największe firmy technologiczne, z ogromnymi inwestycjami w badania i rozwój oraz znaczącym talentem AI. Doprowadziło to do koncentracji władzy w kilku dużych podmiotach o głębokich kieszeniach, co może spowodować znaczną nierównowagę w przyszłości.
  • Potencjalnymi nadużyciami: modele podstawowe obniżają koszt tworzenia treści, co oznacza, że ​​łatwiej jest tworzyć deepfake, które bardzo przypominają oryginał. Obejmuje to wszystko, od podszywania się pod głos i wideo, po fałszywe grafiki, a także ataki ukierunkowane. Poważne obawy natury etycznej mogą szkodzić reputacji lub powodować konflikty polityczne.
  • Charakterem czarnej skrzynki: Modele te nadal wymagają starannego szkolenia i mogą dawać niedopuszczalne wyniki ze względu na ich charakter czarnej skrzynki. Często nie jest jasne, którym modelom bazy faktów przypisuje się odpowiedzi, co może propagować uprzedzenia w zbiorach danych. Homogenizacja takich modeli może prowadzić do pojedynczego punktu awarii.
  • Własnością intelektualną: Model jest szkolony na korpusie stworzonych prac i nadal nie jest jasne, jaki precedens prawny może mieć ponowne wykorzystanie tych treści, jeśli pochodzą one z własności intelektualnej innych osób.

W jaki sposób liderzy z zakresu data analytics mogą w etyczny sposób zintegrować podstawowe modele sztucznej inteligencji w swoich organizacjach?

Bern Elliot: Warto zacząć od przypadków użycia przetwarzania języka naturalnego (NLP), takich jak klasyfikacja, podsumowanie i generowanie tekstu dla scenariuszy niezwiązanych z klientem, i wybrać wstępnie wytrenowane modele specyficzne dla zadania, aby uniknąć kosztownych dostosowań i szkoleń. Preferowane są przypadki użycia, w których dane wyjściowe są przeglądane przez ludzi. Należy utworzyć dokument strategiczny, który przedstawia korzyści, zagrożenia, możliwości i plan wdrożenia podstawowych modeli sztucznej inteligencji, takich jak GPT. Pomoże to ustalić, czy korzyści przewyższają ryzyko w określonych przypadkach użycia.

Warto także używać opartych na chmurze interfejsów API do korzystania z modeli i wybierać najmniejszy model, który zapewni dokładność i wydajność potrzebne do zmniejszenia złożoności operacyjnej, obniżenia zużycia energii i optymalizacji całkowitego kosztu posiadania. Warto nadać priorytet dostawcom, którzy promują odpowiedzialne wdrażanie modeli, publikując wytyczne użytkowania, egzekwując te wytyczne, dokumentując znane luki w zabezpieczeniach i słabości oraz proaktywnie ujawniając scenariusze szkodliwego zachowania i niewłaściwego użycia.


Artykuł pierwotnie opublikowany w Newsroomie Gartnera

Udostępnij
Leave a comment

Dodaj komentarz

- REKLAMA -