Wiosną 2023 roku świat muzyki obiegł utwór „Heart On My Sleeve”, rzekomo wykonany przez Drake’a i The Weeknd. Piosenka, która w rzeczywistości była dziełem anonimowego twórcy i sztucznej inteligencji, stała się viralem, zanim zniknęła z platform streamingowych z powodu naruszenia praw autorskich. Ten incydent brutalnie unaocznił, że dyskusja o AI w sztuce przestała być teoretyczna. Pytanie nie brzmi już czy maszyna potrafi tworzyć muzykę, ale co to dla nas oznacza, skoro już to robi. Czy AI to tylko nowe, potężne narzędzie, czy autonomiczny twórca zagrażający ludzkiej kreatywności?
Anatomia cyfrowego kompozytora
Współczesna muzyka generowana przez AI to owoc dekad rozwoju kompozycji algorytmicznej, która swoje korzenie ma już w latach 50. XX wieku. Jednak prawdziwy przełom nastąpił dzięki dwóm kluczowym technologiom głębokiego uczenia. Pierwszą są Generatywne Sieci Przeciwstawne (GAN), działające na zasadzie pojedynku między „fałszerzem” (Generatorem) a „krytykiem” (Dyskryminatorem). Generator tworzy muzykę, a Dyskryminator uczy się odróżniać ją od prawdziwych utworów, zmuszając Generatora do osiągnięcia niemal doskonałej imitacji.
Prawdziwą rewolucją okazała się jednak architektura Transformer. W przeciwieństwie do starszych modeli, które miały problem z „zapominaniem” początkowych fragmentów utworu, Transformer wykorzystuje mechanizm uwagi (attention). Pozwala on modelowi w każdej chwili „spojrzeć” na całą dotychczasową sekwencję i świadomie nawiązywać do wcześniejszych motywów, co zapewnia długoterminową spójność kompozycji. Dzięki temu narzędzia takie jak AIVA, Suno czy Google Magenta potrafią generować nie tylko proste melodie, ale złożone, wielominutowe utwory w setkach stylów.
AI w praktyce: od asystenta do partnera
Artyści już teraz eksplorują szerokie spektrum współpracy z AI. W 2018 roku Taryn Southern wydała album „I AM AI”, na którym algorytmy (m.in. Amper i AIVA) wygenerowały podstawowe struktury melodyczne i harmoniczne. Artystka przejęła te szkice, dodając teksty, linie wokalne i finalną aranżację, traktując AI jako niewyczerpane źródło inspiracji.
Zupełnie inną drogą podąża awangardowa artystka Holly Herndon. Jej AI, nazwane „Spawn”, zostało wytrenowane wyłącznie na jej własnym głosie i nagraniach jej zespołu. W tym modelu AI nie jest narzędziem, lecz pełnoprawnym, improwizującym członkiem zespołu – „cyfrowym bliźniakiem”. Skrajnym przykładem możliwości analitycznych AI jest projekt dokończenia VIII Symfonii „Niedokończonej” Franza Schuberta, gdzie algorytm, wytrenowany na dorobku kompozytora, wygenerował propozycje brakujących części.
Dysonans w algorytmie: granice sztucznej kreatywności
Mimo imponujących możliwości, muzyka AI wciąż zmaga się z fundamentalnymi ograniczeniami. Najczęściej podnoszonym zarzutem jest brak „duszy” – głębi emocjonalnej wynikającej z ludzkich przeżyć. AI uczy się na wzorcach, ale nie rozumie kontekstu emocjonalnego, przez co jej kompozycje, choć technicznie poprawne, bywają puste i przewidywalne. Producenci wskazują też na konkretne wady techniczne: płaskie, pozbawione przestrzeni miksy i problemy z odwzorowaniem dynamicznych transjentów, które decydują o klarowności dźwięku.
Obecna debata jest głębsza niż te, które towarzyszyły wprowadzeniu syntezatorów czy cyfrowych stacji roboczych (DAW). Tamte technologie automatyzowały instrumenty i studio. AI jest pierwszą technologią, która próbuje zautomatyzować samo jądro kreatywności – ideację.
Kwestie prawne i etyczne: czyja to melodia?
Rozwój AI wyprzedził regulacje prawne, tworząc chaos w kwestii praw autorskich. Zgodnie z polskim prawem, autorem utworu może być wyłącznie człowiek. Dzieło wygenerowane w pełni automatycznie przez maszynę nie podlega ochronie i trafia do domeny publicznej. Ochrona jest możliwa tylko wtedy, gdy wkład człowieka w proces twórczy (np. poprzez edycję i aranżację) jest znaczący.
Największe kontrowersje budzi jednak sam proces uczenia modeli. Są one trenowane na gigantycznych zbiorach danych, zawierających miliony chronionych prawem autorskim piosenek, najczęściej bez zgody i wynagrodzenia dla oryginalnych twórców. To prowadzi do obaw o przyszłość ekonomiczną artystów. Raport CISAC prognozuje, że choć rynek muzyki generatywnej może osiągnąć wartość 64 miliardów dolarów do 2028 roku, ludzcy twórcy mogą stracić nawet 25% swoich przychodów. Najbardziej zagrożeni są kompozytorzy muzyki komercyjnej i funkcjonalnej, gdzie liczy się szybkość i niski koszt, a nie unikalna wizja artystyczna.
Instrument ostateczny
Czy AI potrafi komponować? Tak, potrafi generować muzykę, która jest coraz bardziej złożona i estetycznie satysfakcjonująca. Jednak wciąż brakuje jej intencji, przeżycia i kontekstu, które stanowią o istocie ludzkiej sztuki.