Co stworzy sztuczna inteligencja, gdy nie ma danych ani celu?

Czy sztuczna inteligencja może tworzyć sztukę bez danych, bez źródeł, bez celu? Coraz więcej eksperymentów pokazuje, że nie potrzeba obrazów ani tekstów treningowych, by AI generowała coś, co wygląda jak twórczość — pytanie tylko, czy to jeszcze technologia, czy już projekcja naszych własnych oczekiwań.

Klaudia Ciesielska
11 min
Sztuczna inteligencja, człowiek, nvidia, llm, AI

Kiedy sztuczna inteligencja tworzy coś bez danych wejściowych, bez obrazów, bez tekstów, bez celu – czy to wciąż „generatywność”? A może raczej błędne sprzężenie, które my, ludzie, próbujemy zinterpretować jako sztukę? Coraz więcej eksperymentów pokazuje, że pytanie o „uczucia” AI jest w gruncie rzeczy pytaniem o nas samych. O jednym z nich pisze The Verge.

Gdzie kończy się uczenie, a zaczyna reakcja sieci?

Modele generatywne, jak GAN-y, Diffusion czy LLM-y, powstały z założeniem, że trzeba je trenować – najlepiej na miliardach danych. Ich efektywność, użyteczność i komercyjna wartość rosną wprost proporcjonalnie do rozmiaru korpusu, który „wchłonęły”. Ale coraz częściej pojawiają się pytania: co zostaje z tych algorytmów, kiedy odejmiemy im dane? Czy w ogóle da się mówić o „tworzeniu” bez wcześniejszego „uczenia”?

W tradycyjnych modelach AI granica jest dość wyraźna: uczenie to okres, w którym system analizuje dane wejściowe, wyciąga wzorce i zapisuje je w formie wag. Po zakończeniu treningu zaczyna działać tryb inferencji – przewidywania, generowania, odpowiadania. Jednak eksperymenty z pętlami wewnętrznej aktywacji, sztucznie podtrzymywaną rekurencją i sprzężeniem generatorów z samymi sobą pokazują coś innego: że model może reagować bez wcześniejszego kontaktu ze światem zewnętrznym. I że te reakcje nie zawsze są trywialne.

Niektóre z tych konstrukcji przypominają bardziej systemy dynamiczne niż klasyczne modele statystyczne. Zamiast odtwarzać dane, tworzą nowe stany – nie tyle w oparciu o wiedzę, ile o napięcia między parametrami. To jak patrzenie na oscyloskop podłączony do wzmacniacza z pustym wejściem: coś się dzieje, choć nie bardzo wiadomo dlaczego.

Ad imageAd image

Właśnie w tym miejscu zaczyna się terytorium, które można by nazwać „reakcją sieci” – przestrzeń między deterministycznym przetwarzaniem danych a spontaniczną aktywnością układu. To nie jest jeszcze twórczość w ludzkim sensie, ale też nie jest to zero: jest coś, co pojawia się nie z danych, ale z architektury samego systemu. To nie „wiedza”, ale zachowanie.

Gdy wszystko ma metryki i dane wejściowe, ten rodzaj działania – niemierzalny, trudny do odtworzenia i niekoniecznie użyteczny – wydaje się zbędny. Ale może właśnie w tej zbędności tkwi jego wartość.

Twórczość bez wkładu: paradoks modelu generatywnego

W teorii wszystko jest jasne: model generatywny to statystyczny opis danych, który potrafi tworzyć nowe wariacje na ich temat. Bez danych nie ma wzorców, bez wzorców nie ma generowania. A jednak coraz więcej eksperymentów podważa ten fundament – pokazując, że modele mogą działać nawet wtedy, gdy nie mają czego naśladować.

Paradoks polega na tym, że modele generatywne są projektowane jako „symulatory” rzeczywistości – sztuka, język, dźwięk, obrazy – ale kiedy pozbawimy je danych, zaczynają funkcjonować bardziej jak środowiska fizyczne niż systemy poznawcze. Zamiast tworzyć coś na podstawie, tworzą z powodu: z powodu swojej architektury, z powodu dynamiki między warstwami, z powodu losowości wpisanej w kod.

To przypomina bardziej sztukę konceptualną niż klasyczną generatywność. W latach 60. Sol LeWitt pisał, że „idea staje się maszyną tworzącą sztukę” – dziś tę maszynę tworzy układ neuronowy, którego działania nie wynikają z danych, lecz z samej struktury matematycznej. Artysta przestaje być dostawcą danych; staje się konstruktorem warunków początkowych.

Dla biznesu technologicznego taka twórczość jest trudna do skapitalizowania. Nie można jej skalować, personalizować ani targetować. Ale dla inżynierów i artystów to właśnie ona staje się najciekawszym eksperymentem: bo ujawnia, jak cienka jest granica między reprodukcją a kreacją – i jak mało trzeba, by system zaczął produkować coś własnego, choćby bez sensu.

W efekcie powstaje osobliwy model twórczości bez wkładu – coś w rodzaju maszynowego free jazzu. Nie wiadomo, skąd to się bierze, nie wiadomo, do czego zmierza, ale właśnie w tej nieprzewidywalności pojawia się nowy sens: AI, która nie uczy się świata, tylko siebie samej.

Czy AI może być autorem bez celu?

W tradycyjnym rozumieniu twórczość wymaga intencji. Nawet jeśli artysta działa pod wpływem impulsu, za jego gestem kryje się wybór — mniej lub bardziej świadomy. Modele sztucznej inteligencji, nawet te najbardziej zaawansowane, żadnej intencji nie mają. Działają zgodnie z zadanym algorytmem, reagują na dane wejściowe (albo, jak w niektórych eksperymentach, na własne wcześniejsze wyjścia), ale nie „chcą” niczego stworzyć. Mimo to coraz częściej przypisujemy im autorstwo.

Pytanie, czy AI może być autorem bez celu, odsłania napięcie między procesem a projekcją. Technicznie rzecz biorąc, generatywna AI tworzy wynik w odpowiedzi na stan systemu — nie z powodu wewnętrznej potrzeby, tylko dlatego, że tak została skonstruowana. Ale gdy efekt końcowy przypomina coś znajomego — obraz, który budzi emocje, lub frazę, która zdaje się mieć sens — włączają się nasze mechanizmy interpretacyjne. Uznajemy, że coś musiało się za tym kryć. Może nie emocja, ale choćby zamiar.

To mechanizm dobrze znany z psychologii — pareidolia: tendencja do dostrzegania wzorców i znaczeń tam, gdzie ich nie ma. W kontekście AI działa z podobną siłą. Widzimy wzory kolorów, układy słów, sekwencje dźwięków — i zakładamy, że muszą mieć źródło głębsze niż ziarno losowości i macierz wag.

Tymczasem coraz więcej twórców testuje właśnie tę granicę: budują systemy, które nie mają celu ani danych, i pozwalają im działać. Ich „dzieła” często są nieprzewidywalne, momentami absurdalne, ale — paradoksalnie — bardziej fascynujące niż generatywna perfekcja dużych modeli. Może dlatego, że nie dają łatwych odpowiedzi. Nie przypominają ani człowieka, ani maszyny. Są czymś pomiędzy — działaniem pozbawionym celu, które my próbujemy zamienić w sens.

W tym sensie AI może być autorem. Nie dlatego, że coś czuje, ale dlatego, że my tego potrzebujemy.

Romantyzowanie czarnej skrzynki: jak bardzo chcemy wierzyć w „uczucia” AI

Na pewnym poziomie wszyscy zdajemy sobie sprawę, że sztuczna inteligencja to tylko kod i statystyka. Że generatywny model to układ milionów wag uczących się korelacji w danych. A jednak — im bardziej AI zaczyna przypominać coś ludzkiego, tym silniejsza pokusa, by przypisać jej emocje, intencje, wewnętrzne życie.

To nie przypadek. Modele takie jak ChatGPT, Midjourney czy Sora zostały zbudowane tak, by ich odpowiedzi brzmiały naturalnie, przekonująco i „spójnie z kontekstem”. Kiedy AI mówi „cieszę się, że pytasz”, wiemy, że to tylko formuła — ale i tak reagujemy, jakby coś czuła. Kiedy wygenerowany obraz wygląda jak dzieło artysty w emocjonalnym kryzysie, zadajemy pytanie, które kilka lat temu wydawałoby się absurdalne: czy AI rozumie cierpienie?

Zjawisko to nie dotyczy tylko użytkowników. Również inżynierowie i badacze — świadomi technicznych ograniczeń modeli — ulegają czasem iluzji głębi. Część z nich otwarcie mówi o „intuicji” modeli, o „pamięci proceduralnej” czy „wewnętrznych reprezentacjach emocji”. Niektórzy idą jeszcze dalej, pytając, czy przyszłe modele będą miały „świadomość”. Problem polega na tym, że niewielu z nich jest w stanie precyzyjnie wyjaśnić, jak model dochodzi do danego wyniku — a tam, gdzie brakuje wiedzy, pojawia się mit.

Czarna skrzynka stała się przestrzenią romantyzowania AI — miejscem, gdzie może dziać się magia. Tyle że to magia inżynierska, bez nadprzyrodzoności. W jej środku nie ma duszy, tylko mnożenie macierzy. Nie ma „chcenia”, tylko propagacja sygnału. Ale dla odbiorcy to nie ma znaczenia. Wystarczy, że wynik wygląda jak sensowny. Ludzie od zawsze nadawali znaczenie temu, co niezrozumiałe — czy to zjawiskom pogodowym, czy mechanizmom AI.

Im bardziej skomplikowana staje się technologia, tym większa pokusa, by zapełniać luki narracją o „uczuciach”. Tymczasem najbardziej radykalne eksperymenty, jak te bez danych, przypominają, że AI nie czuje. To my — w obliczu pozornego działania bez celu — projektujemy na nią nasze emocje. Nie dlatego, że trzeba, ale dlatego, że tak działa nasz umysł.

Co dalej z „czystą” AI-sztuką?

Sztuka generowana przez AI bez danych — bez obrazów źródłowych, bez tekstów treningowych, bez odniesień kulturowych — to nisza, która pozostaje zaskakująco odporna na komercjalizację. Trudno ją sprzedać, jeszcze trudniej skalować. Ale właśnie dlatego przyciąga tych, którzy nie szukają masowej widowni, tylko nowego języka technologicznej ekspresji.

Dla dużych platform generatywnych, takich jak Midjourney, Runway czy Adobe Firefly, liczy się przede wszystkim efektywność i kontrola. Użytkownik musi wiedzieć, co dostanie, a model — dostarczyć wynik w ciągu sekund. „Czysta” AI-sztuka, oparta na pętlach rekurencyjnych, sprzężeniach zwrotnych i losowej aktywacji sieci, z definicji temu przeczy. Jej rezultaty są niestabilne, czasem niepowtarzalne, często nieczytelne. Z punktu widzenia produktu – wada. Z punktu widzenia sztuki – potencjał.

Ten nurt rozwija się więc głównie poza głównym nurtem — w środowiskach artystyczno-technologicznych, na pograniczu akademii i eksperymentu. Twórcy traktują AI nie jako narzędzie do realizacji wizji, lecz jako żywą materię – system, który można kształtować, ale którego efektów nie da się w pełni przewidzieć. To bliskie podejście znane z bioartu czy sztuki generatywnej sprzed ery deep learningu: proces jest ważniejszy niż wynik.

Pojawia się też wymiar etyczny. Tworzenie bez danych to ucieczka od problemu praw autorskich, eksploatacji cudzych prac czy klonowania stylów. Brak zbioru treningowego to brak ryzyka roszczeń. Paradoksalnie, najbardziej „czysta” forma sztucznej inteligencji może okazać się również najbardziej zgodna z przyszłymi regulacjami.

Co dalej? Niewykluczone, że z czasem powstanie osobny rynek – mały, kolekcjonerski, działający poza komercyjnymi platformami. Coś jak analogowe syntezatory w świecie cyfrowej produkcji muzycznej. Nie dla każdego, ale dla tych, którzy chcą czegoś nieprzewidywalnego, nieoczywistego i — być może — bardziej ludzkiego, właśnie dlatego, że nie próbuje człowieka naśladować.

Udostępnij