OpenAI luzuje zasady ChatGPT – większa swoboda, ale wciąż z ograniczeniami

OpenAI zmienia podejście do moderacji treści w ChatGPT, dając mu większą swobodę wypowiedzi na tematy uznawane wcześniej za kontrowersyjne. Mimo to model nadal ma zachowywać neutralność i nie promować żadnej konkretnej ideologii.

Klaudia Ciesielska
źródło: Freepik

OpenAI wprowadza istotne zmiany w sposobie, w jaki ChatGPT podchodzi do tematów uważanych za kontrowersyjne. Dzięki nowemu podejściu chatbot zyska większą swobodę wypowiedzi i nie będzie już unikał trudnych pytań. To krok w stronę większej „wolności intelektualnej”, który umożliwia modelowi analizowanie, debatowanie i tworzenie treści bez wcześniejszych, arbitralnych ograniczeń.

Zmiany te zostały opisane w nowej sekcji specyfikacji modelu, w której OpenAI tłumaczy, jak szkoli swoje systemy AI. Firma zapewnia, że ChatGPT nie będzie już stosował uników w przypadku politycznie wrażliwych pytań, a zamiast tego dostarczy kontekst i różne perspektywy.

Neutralność zamiast wolności absolutnej

Mimo rozszerzenia zakresu tematów, w których ChatGPT może się wypowiadać, OpenAI podkreśla, że model nadal będzie zachowywał neutralność. Oznacza to, że chatbot nie będzie forsował jednej konkretnej opinii ani stawał po żadnej ze stron w sporach ideologicznych. Jego zadaniem ma być przedstawianie szerokiego spektrum poglądów i dostarczanie użytkownikowi pełnego obrazu tematu.

Jednocześnie OpenAI podkreśla, że taka neutralność może być kontrowersyjna, zwłaszcza w kontekście tematów moralnie lub etycznie drażliwych. Dla niektórych użytkowników brak jednoznacznego potępienia określonych zjawisk może być problematyczny, ale firma utrzymuje, że rolą AI jest dostarczanie informacji, a nie kształtowanie przekonań społecznych.

Granice wciąż istnieją

Pomimo większej swobody wypowiedzi, pewne ograniczenia nadal obowiązują. ChatGPT nie będzie publikować treści obraźliwych, angażować się w działalność przestępczą ani celowo szerzyć dezinformacji. Jednak, jak pokazują badania, nie zawsze jest możliwe całkowite wyeliminowanie błędów czy manipulacji w modelach AI.

Amerykański trend i jego konsekwencje

Zmiany w podejściu OpenAI wpisują się w szerszy trend w amerykańskim sektorze technologicznym, gdzie wolność słowa jest traktowana bardzo szeroko. Mark Zuckerberg (Meta) zrezygnował z obowiązkowego fact-checkingu, a platforma X (dawniej Twitter) również stopniowo wycofała się z moderacji treści. Podczas gdy w Europie obowiązują przepisy takie jak Digital Services Act (DSA), mające na celu regulację treści online, w USA granice tego, co można powiedzieć, są znacznie bardziej płynne.

Firmy AI są często krytykowane przez środowiska prawicowe za rzekomą stronniczość ich modeli, które – ich zdaniem – unikają skrajnych wypowiedzi i promują „poprawność polityczną”. OpenAI argumentuje jednak, że nie wynika to z cenzury, lecz raczej z charakteru treści dostępnych w internecie, na których modele są trenowane.

Strategiczna decyzja OpenAI?

OpenAI oficjalnie zaprzecza, jakoby decyzja o zmianach była motywowana politycznie. Jednak warto zauważyć, że firma współpracuje z rządem USA nad projektem Stargate – inicjatywą związana z bezpieczeństwem narodowym i sztuczną inteligencją. Złagodzenie ograniczeń ChatGPT może być również strategicznym ruchem, mającym na celu uniknięcie konfliktów politycznych.

Zmiany w ChatGPT to kolejny krok w kierunku bardziej otwartej sztucznej inteligencji. Pozostaje jednak pytanie, czy większa swoboda modelu przełoży się na lepszą jakość informacji, czy też stanie się kolejnym wyzwaniem w walce z dezinformacją w sieci.

Udostępnij