Ad image

Meta oznaczy obrazy wygenerowane przez AI

Użytkownicy mediów społecznościowych domagają się większej przejrzystości i bezpieczeństwa. W odpowiedzi na rosnące obawy dotyczące dezinformacji i fałszywych treści online, giganci technologiczni, tacy jak Meta (wcześniej znana jako Facebook), Google, oraz inne firmy w branży, podjęli kroki mające na celu wprowadzenie etykietowania treści generowanych przez AI na swoich platformach.

Natalia Zębacka - Redaktor Brandsit 2 min czytania

Meta ogłosiła, że rozpoczęła współpracę z partnerami branżowymi nad opracowaniem standardów technicznych, które mają ułatwić identyfikację obrazów, a w przyszłości także materiałów wideo i audio generowanych przez narzędzia sztucznej inteligencji. Inicjatywa ta ma na celu wyraźne oznaczanie treści syntetycznych, co jest istotnym krokiem w kierunku zwiększenia świadomości i edukacji użytkowników na temat pochodzenia i wiarygodności treści, z jakimi się spotykają.

Prezes Meta ds. globalnych spraw, Nick Clegg, podkreślił, że etykiety pojawią się „w nadchodzących miesiącach” i będą dostępne w różnych językach, co jest szczególnie ważne w kontekście globalnego wpływu, jaki mają wybory i inne ważne wydarzenia na całym świecie. Meta już stosuje etykietę “Imagined with AI” na fotorealistycznych obrazach wygenerowanych przy użyciu własnych narzędzi, jednak większość treści AI pochodzi z zewnętrznych źródeł.

Inicjatywa ta wpisuje się w szerszy trend w branży technologicznej, w tym działania takie jak projekt autentyczności treści prowadzony przez Adobe, mający na celu wyznaczenie standardów dla cyfrowych znaków wodnych i etykietowania treści AI. Podobne kroki podejmuje również administracja USA, gdzie prezydent Joe Biden podpisał w październiku zarządzenie wykonawcze nakładające na agencje federalne obowiązek współpracy z sektorem prywatnym w celu zwiększenia autentyczności cyfrowych treści.

Choć oznaczanie treści AI może być skutecznym narzędziem w walce z dezinformacją, nie jest panaceum. Istnieje ryzyko, że platformy mogą nie być w stanie zidentyfikować wszystkich treści generowanych przez mniej znane narzędzia AI, co może prowadzić do fałszywego poczucia bezpieczeństwa wśród użytkowników.

Wprowadzenie etykiet AI na platformach takich jak Facebook, Instagram czy YouTube to znaczący krok w kierunku zwiększenia odpowiedzialności i przejrzystości w cyfrowej przestrzeni publicznej. Ważne jest jednak, aby użytkownicy byli świadomi ograniczeń tej technologii i zachowywali krytyczne podejście do treści, z którymi się spotykają. Tylko wtedy, kiedy technologia idzie w parze z edukacją i świadomością społeczną, możemy skutecznie przeciwdziałać dezinformacji i chronić integralność naszych cyfrowych ekosystemów.