Norbert Biedrzycki: Czy roboty zaczną grzeszyć?

Norbert Biedrzycki
12 min

Każdy z nas podejmuje codziennie szereg decyzji, w których istotne są kwestie etyczne. W dużej części nasze codzienne wybory między dobrem a złem są automatyczne, często przez nas niezauważalne. W świecie Sztucznej Inteligencji kwestia moralności staje się zaś coraz bardziej problematyczna. Czy roboty zaczną grzeszyć?

Technologie oparte na algorytmach, uczeniu maszynowym i automatyzacji procesów znajdują się na takim etapie rozwoju, że pytania i odpowiedzi dotyczące moralności, mogą poważnie wpłynąć na rozwój całej nowoczesnej technologii, a nawet naszej cywilizacji.

U podstaw rozwoju Sztucznej Inteligencji leży wiara w to, że świat może być lepszy. Ludzie mogą być zdrowsi i żyć coraz dłużej, zadowolenie klienta z oferowanych mu usług i dostarczanych produktów stanie się coraz większe, prowadzenie samochodu będzie wygodniejsze i coraz bardziej bezpieczne, a technologia w naszych inteligentnych domach nauczy się rozumieć nasze intencje i potrzeby. Taka właśnie, może nieco utopijna, wizja musiała pojawić się w wyobraźni twórców systemów informatycznych, by mógł dokonać się wielki postęp technologiczny, który nadal trwa. Kiedy wreszcie przekonaliśmy się, że nowatorskie produkty i usługi (komputery rozumiejące język naturalny, systemy rozpoznawania ludzkiej twarzy, pojazdy autonomiczne, inteligentne domy, roboty) rzeczywiście da się stworzyć, to doszliśmy do etapu przeżywania wątpliwości, rozterek i zadawania pytań. Koncerny technologiczne mają świadomość tego, że za ich abstrakcyjnymi, niematerialnymi wytworami (oprogramowanie, algorytmy) ukryte jest podstawowe, klasyczne i poważne pytanie o dobro i zło.Poniżej wskażę na kilka podstawowych wyzwań o charakterze etycznym, które prędzej czy później będą wymagały od nas podjęcia jednoznacznych decyzji.

Rewolucja w prawie

Duże kancelarie prawne w Stanach Zjednoczonych podejmują w ostatnich latach intensywną współpracę zarówno z etykami jak i programistami, dla których praca nad nowymi algorytmami to chleb powszedni. Te aktywności w przeważającej części wynikają z postawy polityków amerykańskich, którzy mają pogłębiającą się świadomość tego, że systemy prawne nie nadążają za zmianami, które niesie za sobą technologia. Uważam, że jednym z największych wyzwań dla dużych społeczności, państw i narodów jest konieczność podjęcia systemowych działań legislacyjnych zmierzających do uregulowania kwestii prawnych dotyczących Sztucznej Inteligencji. Jest to potrzebne zarówno ze względu na poczucie naszego bezpieczeństwa, jak i po to, by całe dziedziny związane z technologiami informatycznymi mogły się dalej rozwijać. Wdrożeniom technologicznym i implementacjom technologii w biznesie nie może towarzyszyć wyłącznie intuicja, zdrowy rozsądek czy działanie w oparciu o zasadę „co nie jest zabronione, jest dozwolone”. Przecież prędzej, czy później ofiarami braku odpowiednich regulacji mogą stać się nie tylko postronni ludzie, ale również i ci, którzy dzisiaj podejmują kluczowe decyzje.

- Advertisement -
Linia produkcyjna w fabryce Foxconn
Linia produkcyjna w fabryce Foxconn

Regulacje rynku pracy

Robotyzacja całych dziedzin przemysłu staje się faktem. Na takich obszarach jak logistyka, BIG DATA, magazynowanie dóbr – udział robotów będzie się systematycznie zwiększał. Nie bez przyczyny jest to chyba najczęściej pojawiający się wątek w rozważaniach dotyczących Sztucznej Inteligencji. Dyskusjom tym towarzyszy często irracjonalny lęk, który może stać się narzędziem ułatwiającym doraźne korzyści wielu grupom społecznym, włącznie z kręgami politycznymi. Co zrobić, by straszenie robotami nie weszło nam w krew? Jednocześnie, jak rozwiązać takie kwestie jak utrata pracy przez człowieka i zastąpienie go maszyną? Czy rozwiązaniem mogą stać się podatki nakładane na firmy o wysokim stopniu robotyzacji? Czy pracodawcy powinni być świadomi odpowiedzialności moralnej, jaka wiąże się z faktem zatrudnienia robota, który może na pewnych obszarach kontrolować pracę człowieka? Kategorie dobra i zła są tutaj szczególnie istotne i trudno je bagatelizować. Automatyzacja i robotyzacja wielu gałęzi przemysłu niesie korzyści, ale może oznaczać też rodzenie się mechanizmów wykluczających i wpływać na pogłębianie się nierówności społecznych. To są prawdziwe wyzwania naszych czasów i nie możemy udawać, że są to kwestie abstrakcyjne.

Kontrola oprogramowania

Według futurologa Raya Kurzweila czeka nas wkrótce powstanie osobliwości, superinteligencji. Jest to ten okres w rozwoju cywilizacyjnym i technologicznym, kiedy zdolności obliczeniowe wszystkich komputerów zaczynają przewyższać umiejętności przetwarzania informacji przez ludzki mózg. Wielu antropologów kultury traktuje to, jako rodzaj doświadczenia granicznego i moment prawdziwych narodzin Sztucznej Inteligencji, a może też jej uniezależnienie się od człowieka. Czy jeśli ta hipoteza ma sens, to oznacza, że systemy Sztucznej Inteligencji potrzebują jakiegoś specjalnego nadzoru? Na czym miałby on polegać? Jak stworzyć standardy w przemyśle informatycznym, które pozwoliłyby na rozróżnienie kategorii zachowań, projektów, produkcji dozwolonych od niedozwolonych? Według Jonathana Zittraina, profesora prawa z Harvardu rosnąca złożoność systemów informatycznych, które są ze sobą coraz bardziej powiązane, powoduje, że kontrola nad nimi staje się niemożliwa. A to może oznaczać szereg niebezpieczeństw łącznie z tym, że kategorie moralne staną się trudne do obrony, czy do utrzymania.

Ray Kurzweil: Nadchodząca osobowość

Autonomiczne pojazdy dokonują wyborów

Kilka miesięcy temu pisałem o kwestiach etycznych związanych z faktem pojawienia się na naszych drogach autonomicznych pojazdów. Opisywałem, że samochody będą musiały dokonywać etycznych wyborów na drodze, co będzie też w konsekwencji oznaczać problem odpowiedzialności dla konkretnych ludzi – programistów tworzących algorytmy czy prezesów koncernów samochodowych. W sytuacji, gdy na drogę w wybiega dziecko, autonomiczny samochód musi niejako sam wybierać, co robić. A te jego wybory będą zależne od tego, jakie algorytmy zostały wykorzystane do jego funkcjonowania. Można teoretycznie wybrać trzy drogi w – nazwijmy to – etycznym programowaniu algorytmów. Pierwsza zakłada, że w sytuacji wypadku i zagrożenia życia, liczy się solidarnie dobro wszystkich uczestników wypadku (czyli kierowca, pasażerowie i dziecko na drodze). Druga wskazuje na to, że najważniejsze jest życie pieszych i uczestników ruchu. W trzecim ujęciu, priorytetem jest ochrona życia kierowcy i pasażerów. Wszystko więc zależy, jaki algorytm będzie w tym przypadku decydujący i na jaki zdecyduje się dana firma. Spośród tych wariantów zachowań producenci będą musieli wybrać najbardziej korzystny – biorąc pod uwagę korzyści biznesowe, warunki ubezpieczenia i zasady etyki. Bez względu na to, który wybiorą, będą też musieli zadbać o ochronę prawną swoich programistów piszących algorytmy.

Jak zachować prawo do prywatności?

Pojęcie prywatności to kwestia wyjątkowo drażliwa w naszych czasach. Nasze dane osobowe są przetwarzanew zasadzie nieustannie przez zautomatyzowane procesy biznesowe i marketingowe. Nasz pesel, nazwisko, historia naszego poruszania się w internecie, zakupów – stała się przedmiotem zainteresowania wszystkich korporacji świata. Żyjąc w zglobalizowanym świecie poddawani jesteśmy nieustannym naciskom – mniej lub bardziej subtelnym – by te nasze dane udostępniać na każdym kroku.

Czym jest prywatność dzisiaj, czym jest właściwie prawo do jej zachowania – to pytanie jest jednym z kluczowych i dotyczy wielu przejawów naszego funkcjonowania. W erze mediów społecznościowych, kiedy każda informacja o naszym życiu została praktycznie na zawsze „kupiona” przez największe portale, nasz prywatność została w zasadzie przedefiniowana. Wprowadzając się do inteligentnego domu nafaszerowanego elektroniką, gdzie każdy sprzęt będzie uczył się naszych potrzeb, musimy zdawać sobie sprawę z tego, że efektem tej nauki będą też konkretne dane, które będą mogły być przetwarzane i udostępniane. Pytanie o to, czy nasze prawo do zachowania przestrzeni prywatnej nie będzie z czasem jeszcze bardziej wystawione na działanie zewnętrznych sił i społecznych procesów – uważam za podstawowe.

Frank – robot bioniczny zbudowany z protez i syntetycznych organów
Frank – robot bioniczny zbudowany z protez i syntetycznych organów

Rządzić będą Boty

Na świecie organizowane są turnieje botów. Polegają one na tym, że ich uczestnicy poddawani są testowi Turinga, czyli klasycznej metodzie sprawdzania, czy obcujemy z komputerem, czy z człowiekiem. Nie będzie chyba dużym zaskoczeniem, że najlepsze boty osiągają wyniki ponad 50 procentowej skuteczności. Oznacza to ni mniej ni więcej, że połowa ludzi uczestniczących w eksperymencie nie jest w stanie odpowiedzieć na pytanie, czy komunikowało się z człowiekiem czy z maszyną. O ile takie laboratoryjne zawody jeszcze wyglądają jak niewinna zabawa, to wprowadzenie botów do powszechnego funkcjonowania może uruchomić szereg pytań natury etycznej. Czy mogę poczuć się przez bota okłamany lub wykorzystany? Czy może mną manipulować i wpływać na moje relacje ze współpracownikami, usługodawcami, szefem? A jeśli poczuję się oszukany, to w jakiej instancji mam szukać zadośćuczynienia? Przecież oskarżenie bota o manipulację brzmi jak bajka nie z tej planety. Maszyny zwiększają obecność w naszym życiu, zaczynają wpływać też na nasze emocje. Tutaj również pytanie o dobro i zło będzie nabierało szczególnego znaczenia.

Czy roboty odróżnią dobro od zła?

Najciekawsze pytania o charakterze etycznym dotyczą właśnie robotyzacji. I tu pojawiają się pytania analogicznie do tych, które towarzyszą obecności pojazdów autononomicznych. Dzisiejsze roboty dopiero się uczą chodzić, odpowiadać na pytania, trzymać w dłoni butelkę napoju, otwierać lodówkę, biegać. Niektóre robią to już z coraz większą naturalnością. Roboty nie tylko zastąpią nas w wielu miejscach pracy. Mogą być naprawdę pomocne w takich obszarach życia, jak chociażby opieka nad ludźmi starszymi, wymagającymi codziennej pomocy. Jeszcze minie sporo czasu, kiedy robot stanie się istotą społeczną, „osobą” chronioną specjalnymi prawami – chociaż pytania o te kwestie już są zadawane. Ale już dzisiaj producenci robotów stają przed wyzwaniami, w których nie brakuje pytań dotyczących wyborów między dobrem i złem. Jak programować robota, by podejmował on działania wyłącznie pozytywne, nie szkodzące ludziom? By nam pomagał w każdej sytuacji, a nie przeszkadzał? Jeśli mielibyśmy ufać technologii i Sztucznej Inteligencji, to musimy zadbać o to, aby maszyna działała zgodnie z planem. Ale co to oznacza w przypadku robota? Wyobraźmy sobie sytuację, że programujemy go tak, by o określonej godzinie podawał leki osobie potrzebującej. I wyobraźmy sobie, że ta osoba nagle odmawia ich przyjęcia. Co ma zrobić robot? Czy uszanować wybór pacjenta? Kto będzie odpowiadał i ponosił konsekwencje prawne dotyczące wyboru maszyny w opisanej sytuacji?

Prawa Robotyki Isaaca Asimova
Prawa Robotyki Isaaca Asimova

Era nowej moralności?

Przedstawiłem kilka najważniejszych obszarów Sztucznej Inteligencji, w których problematyka etyczna jest lub będzie szczególnie ważna. Jednak pytań, które tu nie padły ze względu na rozmiar tekstu – jest dużo więcej. Przełom technologiczny, jaki się dokonuje na naszych czasach, niesie nie tylko jednoznaczne korzyści, czyni nasze życie wygodniejszym i lepszym. Oznacza on również wielkie wyzwanie dla naszego systemu wartości, niesie nadzieje, ale też obawy dotyczące zachwiania utrwalonych granic między dobrem a złem. Być może rewolucja jaka dokonuje się w tych dniach przyniesie globalną zmianę, która dotknie również naszego tradycyjnego pojmowania kategorii etycznych.

Udostępnij
Leave a comment

Dodaj komentarz

- REKLAMA -