Sztuczna inteligencja i wszechobecne deep fakes – wyzwanie etykietowania treści AI

W obliczu rosnącej zdolności sztucznej inteligencji do tworzenia niemal nierozróżnialnych od rzeczywistości obrazów, filmów i nagrań audio, pojawiają się poważne obawy dotyczące etykietowania i rozpoznawania takich treści. Najnowszy raport Fundacji Mozilli ostrzega przed znaczącymi lukami w obecnych metodach etykietowania, podkreślając ryzyko wprowadzania w błąd użytkowników.

Izabela Myszkowska
2 min

W świecie, gdzie technologia rozwija się w błyskawicznym tempie, sztuczna inteligencja zyskała zdolność do tworzenia niezwykle realistycznych obrazów, filmów i nagrań audio. Ta fascynująca zdolność ma jednak swoje ciemne strony, o czym ostrzega najnowszy raport Fundacji Mozilli. Raport podkreśla znaczące luki w obecnych metodach etykietowania treści generowanych przez AI, wskazując na mylące oznaczenia dla użytkowników i łatwość, z jaką mogą być one usunięte.

Problem etykietowania

Etykietowanie treści generowanych przez AI stanowi kluczowy element w walce z dezinformacją. Internet Foundation Mozilla zwraca uwagę, że obecne oznaczenia są trudne do wykrycia i łatwe do usunięcia. Jest to szczególnie niepokojące w kontekście treści, które mogą wprowadzać w błąd, takich jak deepfake’i. Ramak Molavi Vasse’i z Mozilli ostrzega, że bez jednolitego standardu i przemyślanych środków przeciwko złośliwemu użyciu, technologia ta może stać się narzędziem dezinformacji.

Techniczne rozwiązania

Raport wskazuje na techniczne znaki wodne jako bardziej solidne rozwiązanie etykietowania, choć i tutaj pojawiają się wyzwania. Informacje te muszą być odczytywane przez oprogramowanie na urządzeniach użytkowników, co może stanowić kolejną barierę w skutecznym informowaniu o pochodzeniu treści. Ponadto, ekspertyza techniczna wymagana do interpretacji takich znaków może nie być dostępna dla wszystkich użytkowników.

REKLAMA

Przypadki użycia i konsekwencje

Zdolność AI do tworzenia realistycznego wideo została niedawno zademonstrowana przez oprogramowanie Sora od OpenAI, gdzie zauważono trudności z wykryciem małych i łatwo przeoczalnych oznaczeń wskazujących na pochodzenie AI. Co gorsza, zbliżające się wybory prezydenckie w USA i wybory europejskie budzą obawy, że podróbki AI mogą zostać wykorzystane do manipulowania opiniami publicznymi.

Potrzeba samoregulacji i legislacji

Sytuacja ta podkreśla pilną potrzebę samoregulacji w branży technologicznej oraz wprowadzenia odpowiednich przepisów regulujących etykietowanie treści AI. Bez zdecydowanych działań, ryzykujemy, że technologia, która ma potencjał służyć dobroci, zostanie wykorzystana do celów manipulacyjnych i dezinformacyjnych.