OpenAI odmawia przekazania 20 mln logów ChatGPT. Trwa spór prawny z The New York Times

OpenAI walczy o zablokowanie sądowego nakazu, który zmusiłby firmę do przekazania The New York Times 20 milionów zanonimizowanych rozmów użytkowników ChatGPT. Stawką w tym bezprecedensowym sporze o prawa autorskie jest teraz nie tylko własność intelektualna, ale także fundamentalne granice prywatności danych w erze generatywnej AI.

2 Min
Openai
źródło: Unsplash

Spór prawny między OpenAI a The New York Times zaostrza się, przenosząc ciężar z ogólnych oskarżeń o naruszenie praw autorskich na drażliwy grunt prywatności użytkowników. W środę prawnicy twórców ChatGPT zwrócili się do sędziego federalnego w Nowym Jorku o zablokowanie nakazu. Zobowiązuje on firmę do ujawnienia ponad 20 milionów zanonimizowanych zapisów rozmów z ChatGPT.

Dla OpenAI jest to próba ochrony poufnych informacji milionów użytkowników. Firma argumentuje, że “99,99%” tych transkryptów nie ma żadnego związku ze sprawą, a udostępnienie logów, nawet po deidentyfikacji, stanowi “spekulacyjną wyprawę wędkarską” i naruszenie prywatności. Dane Stuckey, dyrektor ds. bezpieczeństwa informacji w OpenAI, określił potencjalne ujawnienie jako przymusowe przekazanie “dziesiątek milionów bardzo osobistych rozmów”.

Jednak dla The New York Times, dzienniki czatów są kluczowym dowodem w sprawie. Koncern medialny, który oskarża OpenAI o bezprawne wykorzystanie milionów swoich artykułów do trenowania modeli, potrzebuje tych danych z dwóch powodów. Po pierwsze, aby udowodnić, że ChatGPT faktycznie replikuje treści chronione prawem autorskim w odpowiedzi na zapytania zwykłych użytkowników.

Po drugie, logi mają posłużyć do obalenia centralnej tezy obronnej OpenAI. Firma twierdzi, że NYT celowo “zhakował” chatbota, używając specyficznych, wprowadzających w błąd zapytań (promptów), aby siłą wydobyć z modelu dowody naruszenia. Dzienniki mają pokazać, czy takie wyniki są normą, czy tylko efektem manipulacji.

Obie strony spierają się o interpretację bezpieczeństwa. Rzecznik NYT nazwał stanowisko OpenAI “celowo wprowadzającym w błąd”, podkreślając, że “żadna prywatność użytkownika nie jest zagrożona”. Wskazał, że sąd nakazał dostarczenie jedynie próbki czatów, zanonimizowanych przez samo OpenAI i objętych nakazem ochronnym. Sędzia Ona Wang, wydając pierwotny nakaz, również uznała, że “wyczerpująca deidentyfikacja” będzie wystarczającym zabezpieczeniem.

Udostępnij