Deepfake to wieeelkie bagno. I chyba najgorsze pozacyberprzestępcze wykorzystanie technologii. Od teraz też w polskiej polityce

Bartosz Martyka
Bartosz Martyka - Redaktor naczelny Brandsit
9 min

Żadna ustawodawcza machina nie jest w stanie nadążyć za skaczącym postępem technologicznym. Cyberprzestrzeń trudniej zrozumieć niż zwykłą rzeczywistość. Trudniej dostrzec patologie, przemoc i przestępczość, która dzieje się w świecie zer i jedynek. Jednak całkiem sporo ludzi radzi sobie z problemem braku regulacji w cyberprzestrzeni. Jak? Albo nie posiadając umiejętności i wiedzy, jak dokonać naruszenia, albo, jeśli taką wiedzę mają, przemawia przez nich zwykła przyzwoitość lub też strach. 

Deepfakes, czyli technologia generowania obrazów i dźwięków za pomocą sztucznej inteligencji, zyskują na popularności i stają się coraz bardziej zaawansowane. Na pierwszy rzut oka mogą wydawać się niewinne; zabawne memy, imitacje znanych osób czy nawet nowe formy artystycznego wyrazu. Ale za tą fasadą kryje się coś znacznie bardziej niepokojącego. Deepfakes mają potencjał do manipulowania opinią publiczną, wpływania na wybory i nawet kompromitowania bezpieczeństwa narodowego.

Deepfake to termin odnoszący się do techniki generowania obrazów i dźwięków za pomocą zaawansowanych algorytmów sztucznej inteligencji (AI). W praktyce, technologia ta wykorzystuje sieci neuronowe, w tym głębokie sieci konwolucyjne (CNN) i rekurencyjne sieci neuronowe (RNN), do analizy i naśladowania danych wejściowych, takich jak obrazy i dźwięki.

Mechanizm działania

W uproszczeniu, proces tworzenia deepfake polega na “uczeniu” modelu AI na podstawie dużej ilości danych. Na przykład, jeżeli celem jest stworzenie wideo, w którym znana osoba wypowiada słowa, których nigdy nie powiedziała, model jest “trenowany” na podstawie istniejących nagrań wideo i audio tej osoby. Algorytm analizuje mimikę, ruchy ust, tonację głosu i inne cechy, a następnie generuje nowy materiał, który jest niemalże nieodróżnialny od autentycznego.

- Advertisement -

Deepfakes znalazły zastosowanie w różnych dziedzinach, począwszy od rozrywki i filmu, aż po politykę i media społecznościowe. W kontekście rozrywkowym, technologia ta pozwala na tworzenie realistycznych efektów specjalnych, dubbingu i animacji. W polityce, deepfakes mogą być używane do manipulacji wypowiedziami polityków, co otwiera drzwi do potencjalnych nadużyć i dezinformacji

Mimo swojego zaawansowania, technologia deepfake nie jest pozbawiona ograniczeń. Wysoka jakość generowanego materiału często wymaga znaczących zasobów obliczeniowych i czasu. Ponadto, istnieją metody wykrywania deepfakes, choć są one wciąż w fazie rozwoju.

Deepfake w polskiej polityce: Kontrowersje wokół spotów Koalicji Obywatelskiej

W erze, gdzie informacja jest jednym z najważniejszych zasobów, zdolność do manipulowania nią staje się narzędziem o ogromnej mocy. W kontekście politycznym, deepfakes mogą służyć jako potężne narzędzie propagandy, dezinformacji i manipulacji opinii publicznej.

Jednym z najbardziej niepokojących zastosowań deepfakes w polityce jest możliwość manipulowania wypowiedziami publicznymi. Wyobraźmy sobie sytuację, w której wideo przedstawiające znanej polityka wygłaszającego kontrowersyjne lub szkodliwe komentarze jest publikowane tuż przed wyborami. Albo publikowane jest nagranie wypowiedzi, które zostało sfałszowane dzięki ML. Nawet jeśli materiał zostanie później zdyskredytowany jako fałszywy, szkoda może być już wyrządzona, wpływając na wynik wyborów. W Polsce, niestety, nie musimy sobie tego wyobrażać, ponieważ Koalicja Obywatelska wykorzystała technologię w swoich spotach wyborczych, co wywołało burzę w mediach i wśród polityków.

Koalicja Obywatelska, w ramach swojej kampanii wyborczej, opublikowała serię spotów, w których wykorzystano głosy czołowych polityków PiS-u wygenerowane przy pomocy sztucznej inteligencji. Te “sztuczne” głosy “czytały” rzekome maile z tzw. skrzynki Michała Dworczyka. Dzięki technologii deepfake, maile brzmiały autentycznie, co miało na celu wzmocnienie przekazu. KO w żadnym miejscu nie oznaczyła, że spoty nie są prawdziwe, a głosy są wygenerowanie sztucznie. 

Reakcje na te spoty były mieszane. Z jednej strony, wielu komentatorów i ekspertów wyraziło obawy co do etyki takich działań, podkreślając, że dla wielu odbiorców wygenerowane głosy mogą być mylące. Z drugiej strony, przedstawiciele Koalicji Obywatelskiej bronią swojego podejścia, argumentując, że spoty te mają na celu zwrócenie uwagi na ważne kwestie polityczne.

Kwestia wykorzystania technologii deepfake w polityce stawia przed nami wiele pytań prawnych i etycznych. Czy takie działania są legalne? Czy powinny być regulowane? Jakie są granice wykorzystania technologii w kampaniach wyborczych? Te pytania stają się coraz bardziej palące w obliczu rosnącej popularności deepfakes.

KO zasłania się kwestią prawników, którzy, zdaniem Koalicji, twierdzą, że takie działania są legalne. Czy etyczne, moralne i nieszkodliwe – tego już zapewne prawnicy nie stwierdzą, ale warto byłoby się nad tym zastanowić. Jednak, jak podaje portal Wp.pl [WP.pl] – Koalicja Obywatelska wcale nie zamierza wycofywać się ze spotów. Wręcz przeciwnie, w odpowiedzi na zapytania WP, przedstawiciele partii stwierdzają, że spodziewali się efektu rozgłosu przy sztucznie wygenerowanych wypowiedziach, a także, że zależało im na włączeniu w kampanię maili, które wyciekły ze skrzynki Michała Dworczyka, byłego szefa Kancelarii Prezesa Rady Ministrów przy rządzie Mateusza Morawieckiego. Co więcej, partia opozycyjna planuje jeszcze mocniej wykorzystać deepfake w swojej kampanii. 

Pojawiają się głosy obrony 

Wiele osób komentujących to zdarzenie broni opozycji, stwierdzając, że są to słowa, które te osoby faktycznie miały na myśli, tylko, że nie wypowiedziały ich, ale napisały w korespondencji z Dworczykiem. Jednak warto pamiętać, że deepfake to szalenie niebezpieczna technologia, szczególnie w nieodpowiednich rękach. Nie oszukujmy się – ludzie to nie maszyny weryfikujące prawdziwość przekazu, jaki do nich dociera. Ludzie po prostu reagują, na to, co widzą. Niezależnie od tego, czy jest to prawda czy nie. Eksperci alarmują, że w skrajnych przypadkach deepfake może stanowić zagrożenie dla bezpieczeństwa narodowego. Możliwe jest stworzenie materiałów, które fałszywie przedstawiają liderów państw wydających wojenne rozkazy lub podejmujących inne krytyczne decyzje, co może prowadzić do poważnych konsekwencji na arenie międzynarodowej. I można mówić, że wyolbrzymiam, że przecież nic się takiego nie stało (jeszcze). Ale prawda jest taka, że lansowanie tak obrzydliwej technologii, jaką jest deepfake jest chyba najgorszą, kompletnie krótkowzroczną zagrywką polityczną i trzeba o tym mówić.

Pozornie nieszkodliwe wykorzystanie sztucznie wygenerowanych wypowiedzi partii rządzącej to tylko wierzchołek góry lodowej. Wiele krajów zaczyna rozważać wprowadzenie regulacji dotyczących deepfake. Niektóre z nich, jak np. w Stanach Zjednoczonych, już wprowadziły ustawy mające na celu penalizację tworzenia i dystrybucji fałszywych materiałów wideo. I nic w tym dziwnego, ponieważ możliwość tak realistycznego oszukiwania ludzi idących do urn stwarza realne zagrożenie dla demokracji. Można wyrządzić wiele szkód, które będą już nie do naprawienia. 

Czy to konieczne?

Do zachowania, wypowiedzi i opinii polityków każdej partii w Polsce można mieć tyle zastrzeżeń, że nie trzeba się uciekać do tak niebezpiecznych zagrywek, jak deepfake, aby osiągnąć zamierzony efekt. Na szczęście znalazło się spore grono ludzi, którzy takie sytuacje krytykują, udowadniając, że nie jesteśmy narodem, który da się tak łatwo oszukać. Czemu to takie ważne? Bo jeśli nie gra coś w wewnętrznej polityce i partie robią sobie nawzajem nieprzyjemności, to można to podpiąć pod “zagrywki wyborcze”. Gorzej, jeśli do akcji wszedłby gracz z zewnątrz, siejąc zamęt, wpływając na wynik wyborów, który będzie korzystny z jego perspektywy. 

Trochę martwi ten poziom pobłażliwości dla deepfake’u KO. Może mieć to związek poparciem dla KO lub też niechęcią wobec PiSu. I to jest kolejny dowód na to, że jest to niebezpieczny precedens, bo ponad racjonalną oceną tego zjawiska pojawiają się poglądy polityczne, co powoduje, że dla wielu osób jest to po prostu “zło konieczne” zamiast po prostu oszustwo. Dlatego niezależnie od tego, kto i w jakim stopniu dopuścił się wykorzystania deepfake – należy to piętnować ze względu na niebezpieczeństwo tego rozwiązania.

Wpływ deepfake na dezinformację i fałszywe wiadomości może mieć długotrwałe konsekwencje dla stabilności społecznej i politycznej. Ponadto, zagrożenia dla prywatności i bezpieczeństwa osobistego są niemożliwe do zignorowania. W obliczu tych wyzwań, istnieje pilna potrzeba regulacji i środków ostrożności, które mogą pomóc w ograniczeniu negatywnego wpływu tej technologii.

Udostępnij
Leave a comment

Dodaj komentarz

- REKLAMA -