Sztuczna inteligencja coraz częściej udaje człowieka — i robi to z rosnącą skutecznością. Od deepfake’ów po głosy podszywające się pod bliskich, generatywne systemy AI zacierają granice między prawdą a fikcją. W obliczu tych wyzwań wraca pytanie, które zadał Isaac Asimov ponad 80 lat temu: jakie prawa powinny obowiązywać maszyny, zanim będzie za późno?
Od fizycznego bezpieczeństwa do ochrony prawdy
Asimov wprowadził swoje prawa w epoce, gdy roboty były czystą spekulacją, a zagrożenia miały głównie charakter fizyczny: maszyna nie mogła skrzywdzić człowieka. Dziś sztuczna inteligencja raczej nie grozi nam mechanicznym ramieniem, ale może — i coraz częściej to robi — oszukiwać nas słowem, obrazem i dźwiękiem. Złośliwe wykorzystanie generatywnej AI staje się jednym z największych wyzwań społecznych, ekonomicznych i politycznych.
W samym tylko 2023 roku cyberprzestępstwa oparte na manipulacji cyfrowej kosztowały ofiary 10,3 miliarda dolarów – wynika z danych FBI. Rosnąca dostępność narzędzi GenAI spowodowała gwałtowny wzrost jakości i skali deepfake’ów, fałszywych głosów, generowanych awatarów i zmanipulowanych filmów. Te zjawiska były szczególnie niebezpieczne w roku 2024, gdy ponad 4 miliardy ludzi na świecie brały udział w wyborach. Deepfake’i nie muszą być doskonałe — wystarczy, że wzbudzają wątpliwość. A w sferze politycznej to wystarczy, by zasiać chaos.
Czwarte prawo: nie udawaj człowieka
W reakcji na rosnące zagrożenia pojawiła się nowa propozycja rozszerzenia praw robotyki o czwarte prawo: AI nie może udawać człowieka. To zasada, która uderza w samo sedno problemu — czyli w nieprzejrzystość i manipulację. W czasach Asimova robot miał być fizyczną maszyną — dziś może być niewidzialnym botem, który dzwoni do naszej babci i podszywa się pod wnuczka proszącego o szybki przelew.
To właśnie zacieranie granic między człowiekiem a maszyną stanowi największe ryzyko — nie tylko w sferze bezpieczeństwa, ale przede wszystkim dla zaufania społecznego. Bo jeśli nie możemy już wierzyć temu, co widzimy i słyszymy — to komu lub czemu będziemy ufać?
Od science fiction do realnej polityki
Unia Europejska, przyjmując ustawę o sztucznej inteligencji, zrobiła pierwszy krok w stronę formalizacji zasad, o których Asimov mógł tylko pisać w opowiadaniach. Przepisy wymagają, by systemy AI były transparentne, a treści generowane automatycznie — jasno oznaczane. W praktyce oznacza to, że jeśli rozmawiamy z chatbotem, powinniśmy o tym wiedzieć. Jeśli widzimy wideo wygenerowane przez AI — powinno być oznaczone.
Ale prawdziwe wyzwanie leży gdzie indziej: w egzekwowaniu tych zasad na skalę globalną i technologiczną. Potrzebne są standardy techniczne (np. znakowanie cyfrowe czy „wodoodporne” watermarki treści AI), ale także kampanie edukacyjne, które zwiększą świadomość użytkowników, jak odróżniać treści prawdziwe od zmanipulowanych.
AI bez etyki to nie robotyka — to anarchia
Nie brakuje głosów, że świat zareagował zbyt wolno. List otwarty podpisany przez ponad tysiąc ekspertów i liderów branży technologicznej, wzywający do wstrzymania rozwoju największych modeli AI, pozostał bez realnego echa. AI rozwija się szybciej, niż jesteśmy w stanie regulować jej użycie. Przestępcy, dezinformatorzy i oszuści już dziś wykorzystują możliwości technologii, która jeszcze kilka lat temu była w fazie eksperymentalnej. Co więcej — to tanie, łatwo dostępne narzędzia, których użycie nie wymaga już zaawansowanej wiedzy.
W tym sensie czwarte prawo robotyki staje się nie tylko moralnym postulatem, ale koniecznością operacyjną. Tak jak nie pozwalamy produktom spożywczym udawać lekarstw, tak nie powinniśmy pozwalać AI udawać ludzi.
Nowe granice współpracy człowieka z maszyną
Paradoks współczesnej sztucznej inteligencji polega na tym, że jej potencjał do pomocy człowiekowi jest równie ogromny jak potencjał do szkodzenia. AI może wspierać edukację, zdrowie publiczne, efektywność energetyczną czy walkę z chorobami. Ale tylko wtedy, gdy działa w sposób przejrzysty i kontrolowalny.
Wchodzimy w epokę, w której „człowiek czy AI?” stanie się jednym z najważniejszych pytań XXI wieku — nie tylko dla programistów, ale dla prawników, dziennikarzy, nauczycieli i wyborców. To pytanie będzie wymagało systemowych odpowiedzi: regulacji, standardów, etyki i, być może, nowej wersji praw robotyki — dostosowanej nie do fizycznych robotów, ale do cyfrowych bytów, które dziś kształtują naszą rzeczywistość.
Ostatecznie, nie chodzi już tylko o to, by robot nie skrzywdził człowieka. Chodzi o to, by nie oszukał go tak skutecznie, że człowiek nawet nie zorientuje się, że miał do czynienia z maszyną.