W świecie, gdzie technologia rozwija się w błyskawicznym tempie, sztuczna inteligencja zyskała zdolność do tworzenia niezwykle realistycznych obrazów, filmów i nagrań audio. Ta fascynująca zdolność ma jednak swoje ciemne strony, o czym ostrzega najnowszy raport Fundacji Mozilli. Raport podkreśla znaczące luki w obecnych metodach etykietowania treści generowanych przez AI, wskazując na mylące oznaczenia dla użytkowników i łatwość, z jaką mogą być one usunięte.
Problem etykietowania
Etykietowanie treści generowanych przez AI stanowi kluczowy element w walce z dezinformacją. Internet Foundation Mozilla zwraca uwagę, że obecne oznaczenia są trudne do wykrycia i łatwe do usunięcia. Jest to szczególnie niepokojące w kontekście treści, które mogą wprowadzać w błąd, takich jak deepfake’i. Ramak Molavi Vasse’i z Mozilli ostrzega, że bez jednolitego standardu i przemyślanych środków przeciwko złośliwemu użyciu, technologia ta może stać się narzędziem dezinformacji.
Techniczne rozwiązania
Raport wskazuje na techniczne znaki wodne jako bardziej solidne rozwiązanie etykietowania, choć i tutaj pojawiają się wyzwania. Informacje te muszą być odczytywane przez oprogramowanie na urządzeniach użytkowników, co może stanowić kolejną barierę w skutecznym informowaniu o pochodzeniu treści. Ponadto, ekspertyza techniczna wymagana do interpretacji takich znaków może nie być dostępna dla wszystkich użytkowników.
Przypadki użycia i konsekwencje
Zdolność AI do tworzenia realistycznego wideo została niedawno zademonstrowana przez oprogramowanie Sora od OpenAI, gdzie zauważono trudności z wykryciem małych i łatwo przeoczalnych oznaczeń wskazujących na pochodzenie AI. Co gorsza, zbliżające się wybory prezydenckie w USA i wybory europejskie budzą obawy, że podróbki AI mogą zostać wykorzystane do manipulowania opiniami publicznymi.
Potrzeba samoregulacji i legislacji
Sytuacja ta podkreśla pilną potrzebę samoregulacji w branży technologicznej oraz wprowadzenia odpowiednich przepisów regulujących etykietowanie treści AI. Bez zdecydowanych działań, ryzykujemy, że technologia, która ma potencjał służyć dobroci, zostanie wykorzystana do celów manipulacyjnych i dezinformacyjnych.