Narzędzi takich jak ChatGPT lepiej w szkołach czy na uczelniach nie zakazywać, ale wprowadzać w sposób świadomy i celowy. Rozwój sztucznej inteligencji niesie za sobą szereg wyzwań, ale tkwi w niej ogromny potencjał – powiedziała PAP członkini Grupy Roboczej ds. Sztucznej Inteligencji w KPRM dr Dominika Kaczorowska-Spychalska.
ChatGPT – technologia, która działa jak mózg
Aplikację ChatGPT opracowała amerykańska firma OpenAI. Służy m.in. do tworzenia odpowiedzi na pytanie lub polecenia wprowadzane przez użytkownika. Potrafi też wykonać bardziej złożone zadania, na przykład napisać opowiadanie. Ostatnią wersję narzędzia udostępniono publicznie w listopadzie ub.r. Światowe media zwróciły uwagę na to, że ChatGPT ma duże możliwości i stał się popularny wśród użytkowników internetu. Tylko w ciągu pierwszych dni skorzystało z niego kilka milionów osób.
Chatbot działa w oparciu o sztuczną inteligencję (SI), dokładniej sieci neuronowe, które coraz częściej wspomagają pracę człowieka w m.in. diagnostyce medycznej, technicznej, automatycznych tłumaczeniach. Przez wiele lat uważano, że maszyny należy zaprogramować w pełni, a całą potrzebną wiedzę do ich działania zapisać w postaci reguł. Powstające ostatnio sztuczne sieci neuronowe działają jednak inaczej, bo podobnie do mózgu. Dzięki temu systemy oparte o nie mają zdolność do uczenia się na podanych przykładach.
ChatGPT był “szkolony” na olbrzymim zbiorze danych przy wykorzystaniu olbrzymiej sieci neuronowej — według informacji podawanych w mediach wykorzystano 175 miliardów parametrów i 570 gigabajtów danych pochodzących z tekstów dostępnych w internecie, w tym książek opublikowanych do 2021 r.
Zakazać czy nauczyć?
Zwróciła uwagę, że mamy już co prawda narzędzia wykrywające zastosowanie generatorów takich jak ChatGPT, ale nie zawsze ich skuteczność jest najlepsza. Zapytana o to, czy ChatGPT to faktycznie nowa jakość, czy też raczej wiele hałasu o nic, podkreśliła, że w większości przypadków użytkownicy mówią o zachwycie, zwłaszcza początkowo.