Jak rozpoznać deepfakes?

Deepfake, coraz bardziej zaawansowane narzędzie sztucznej inteligencji, stanowi rosnące wyzwanie dla cyfrowego świata, zacierając granicę między fikcją a rzeczywistością. Stwarzając możliwość łatwego manipulowania obrazami i filmami, deepfake sprawia, że rozróżnienie prawdy od fałszu staje się coraz trudniejsze. Jak je rozpoznać?

Klaudia Ciesielska - Redaktor prowadzący Brandsit

Deepfake staje się jednym z największych problemów cyfrowego świata. Te zwodnicze obrazy i filmy, tworzone przez zaawansowane narzędzia sztucznej inteligencji, sprawiają, że coraz trudniej jest odróżnić fikcję od rzeczywistości.

“Deepfake to oszustwa polegające na podszywaniu się pod kogoś innego z wykorzystaniem najnowszej technologii, która umożliwia nałożenie na materiał źródłowy, twarzy lub głosu kogoś innego.” wyjaśnia definicję “deepfake” Piotr Rozmiarek, Copywriter, Bitdefender Polska.

Co więcej, każdy może stworzyć deepfake, nawet bez szczegółowej wiedzy technicznej, używając dostępnych publicznie generatorów jak DALL-E czy Midjourney. Oto praktyczny przewodnik, jak rozpoznawać deepfakes, zarówno w zdjęciach, jak i wideo.

Wskazówki do rozpoznawania deepfake na zdjęciach:

  • Perfekcyjna cera: AI często nadaje zdjęciom nienaturalnie gładką cerę, co może wyglądać jak “elektroniczny połysk” czy efekt wygładzający. Jeśli skóra na zdjęciu wydaje się zbyt doskonała, warto to poddać w wątpliwość.
  • Niespójność cieni i oświetlenia: Sprawdź, czy cienie i światło na zdjęciu są spójne. Często AI nie radzi sobie dobrze z odtworzeniem realistycznego oświetlenia, co może być widoczne zwłaszcza w tle i na krawędziach obiektów.

Kamil Sadkowski

“Deepfake’i bywają coraz częściej wykorzystywane przez cyberprzestępców. Narzędzia pozwalające na preparowanie przekazów video czy audio są łatwo dostępne i proste w obsłudze. Zdjęcia, filmy stworzone przez AI i technologia klonowania głosu pozwalają przypisać prawie każdej osobie przekaz, którego nigdy nie wypowiedziała. Warunkiem jest dostęp do większej liczby autentycznych zdjęć, nagrań wideo i audio z jej udziałem. Na ich podstawie AI generuje nowy materiał. W oszustwach opartych na deepfake wykorzystywane są więc często osoby publiczne. Kliknięcie w takie informacje i linki może skończyć się pobraniem złośliwego oprogramowania, a nawet utratą pieniędzy. W obliczu obecnej sytuacji geopolitycznej, deepfake może być także wykorzystywany przez grupy cyberprzestępcze, powiązane z rządami różnych państw, do destabilizowania np. poprzez fałszywe materiały z udziałem polityków. Oczywiście nie tylko osoby medialne bywają wykorzystywane. Każdy plik wideo czy zdjęcie, jakie kiedykolwiek udostępniliśmy w sieci, może posłużyć do sfabrykowania przekazu. To możliwości rozwinięcia m.in. tzw. oszustw „na wnuczka”.” mówi Kamil Sadkowski, analityk laboratorium antywirusowego ESET.


Wskazówki do rozpoznawania deepfake w wideo:

  • Niepasujące ruchy ust: Jeśli ruchy ust nie pasują do słyszanych dźwięków, może to być znak, że wideo zostało zmodyfikowane. Nienaturalne ruchy czy brak synchronizacji są typowe dla nieudolnych deepfakes.
  • Niezwykła tekstura twarzy i zębów: Deepfakes często mają trudności z realistycznym odwzorowaniem zębów i konturów twarzy. Rozmazane lub niewyraźne zęby mogą być jednym z sygnałów ostrzegawczych.

Kontekst i zdrowy rozsądek

Nie zapominaj o kontekście. Jeśli zobaczysz nagranie znanego polityka mówiącego coś zaskakującego lub niezgodnego z ich znanymi poglądami, może to być deepfake. Na przykład, nieprawdopodobne jest, aby postać publiczna nagle promowała kontrowersyjne idee bez jakichkolwiek wcześniejszych sygnałów.

“Coraz trudniej stwierdzić, czy dany materiał jest wytworem AI. Jeszcze kilka lat temu demaskowanie sfabrykowanych filmów i obrazów było dość proste. Platformy społecznościowe, na których pojawiają się takie materiały, powinny reagować i rozwijać narzędzia służące demaskowaniu oszustw. Z punktu widzenia zwykłych użytkowników ważne jest weryfikowanie informacji, nawet tych z udziałem osób, które znamy i którym ufamy. Jak najwięcej osób powinno mieć też świadomość tego, że nie wszystkie materiały zdjęciowe, audio i wideo w sieci są prawdziwe. Rozmawiajmy o tym z dziećmi, osobami starszymi i każdym, kto nie ma wystarczającej wiedzy o cyfrowym świecie.” dodaje Kamil Sadkowski, analityk laboratorium antywirusowego ESET.

Wykorzystanie technologii do walki z technologią

Rozwijają się narzędzia, takie jak algorytmy Microsoftu czy FakeCatcher od Intel, które analizują zdjęcia i wideo, by określić ich autentyczność. Chociaż te narzędzia nie są powszechnie dostępne, warto śledzić rozwój tych technologii, które mogą pomóc w automatycznym wykrywaniu deepfakes.


Piotr Rozmiarek

“Ochrona przed deepfake jest trudna. Oszuści często korzystają ze spoofingu, który polega na kradzieży nr telefonu ofiary, pod którą się podszywają, dzięki temu osoba, z którą się kontaktują myśli, że rozmawia ze swoim znajomym lub pracodawcą. Oszuści korzystają także z technik inżynierii społecznej. Próbują stworzyć poczucie pilności i mogą np. podszywać się pod członka rodziny i prosić o szybki przelew z powodu wypadku lub prezesa korporacji, który dzwoni do księgowej z poleceniem pilnego przelewu. Najlepszą metodą na takie oszustwa jest stworzenie w firmie lub organizacji procedur, które będą zawierać informacje, w jaki konkretny sposób prezes ma zlecić wykonanie przelewu i co ma zrobić pracownik, jeśli stwierdzi, że coś jest nie tak. W przypadku osób fizycznych warto porozmawiać z członkami rodziny o tym, aby nigdy nie przelewali i nie oddawali żadnych pieniędzy po podejrzanej rozmowie telefonicznej, lub otrzymaniu załącznika na mediach społecznościowych, a zamiast tego zadzwonili, lub porozmawiali osobiście do osoby, pod którą podszywa się oszust.”radzi Piotr Rozmiarek Copywriter Bitdefender Polska.


Deepfakes stanowią wyzwanie dla naszej zdolności do odróżniania prawdy od fałszu w cyfrowym świecie. O ile technologia AI poprawia się, sprawiając, że deepfakes stają się coraz bardziej zaawansowane i trudniejsze do wykrycia, to równie istotne staje się rozwijanie naszych umiejętności krytycznego myślenia i zwracanie uwagi na detale, które mogą ujawnić fałszerstwo. Zwracanie uwagi na niuanse techniczne i kontekstowe może pomóc ochronić nas przed manipulacją i dezinformacją.

Zostaw komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *