W świecie technologii korporacyjnej panuje niemal religijne przekonanie, że każdy problem można rozwiązać odpowiednią dawką automatyzacji. Szczególnie gdy mowa o „cyfrowym długu”, jakim są systemy typu mainframe. Najnowsze prognozy Gartnera rzucają jednak chłodny cień na entuzjazm Doliny Krzemowej: do 2026 roku ponad 70% projektów wyjścia z mainframe zakończy się porażką. Przyczyną nie jest brak funduszy, lecz nadmierna wiara w „magiczną” moc generatywnej sztucznej inteligencji.
Przez lata migracja z systemów legacy była procesem żmudnym, kosztownym i obarczonym gigantycznym ryzykiem operacyjnym. Pojawienie się modeli językowych (LLM) obiecywało przełom – automatyczną konwersję milionów linii kodu COBOL na nowoczesną Javę czy Pythona. Rzeczywistość okazuje się jednak bardziej złożona. Choć AI doskonale radzi sobie z identyfikacją błędów czy dokumentowaniem kodu, proces rzeczywistej konwersji i utrzymania wydajności na poziomie mainframe’u pozostaje poza jej zasięgiem.
Pułapka wysokich oczekiwań
Głównym problemem, na który wskazują analitycy, jest rozdźwięk między marketingowymi obietnicami dostawców a technologiczną rzeczywistością. Pod presją inwestorów, firmy technologiczne forsują rozwiązania AI jako panaceum na trwające dekady zaniedbania w architekturze IT. To podejście ignoruje fakt, że mainframe’y nie są tylko „starymi komputerami”. To unikalne ekosystemy zoptymalizowane pod kątem niespotykanej przepustowości i niezawodności, których nie da się łatwo odtworzyć w chmurze przy pomocy prostego przepisania kodu przez algorytm.
Ryzyko jest wymierne. Gartner przewiduje, że do 2030 roku trzy czwarte dostawców zaangażowanych obecnie w migracje oparte na AI po prostu zniknie z rynku. Dla dyrektorów ds. technologii (CTO) oznacza to perspektywę pozostania z niedokończonym, krytycznym projektem i brakiem wsparcia ze strony bankrutującego partnera.
Dług techniczny w nowym wydaniu
Zamiast eliminować dług techniczny, bezrefleksyjna migracja sterowana przez AI może go paradoksalnie pogłębić. Generatywna sztuczna inteligencja często generuje kod, który „działa”, ale nie jest zoptymalizowany pod kątem nowej infrastruktury. W efekcie firmy ryzykują zakłócenia operacyjne, które w sektorach takich jak bankowość czy logistyka mogą kosztować miliony dolarów na minutę.
Co więcej, AI nie potrafi przenieść kontekstu biznesowego gromadzonego przez dziesięciolecia. Kod w mainframe’ach często zawiera reguły biznesowe, o których istnieniu obecne zespoły IT dawno zapomniały. Maszyna, nie rozumiejąc logiki stojącej za konkretnym rozwiązaniem, może stworzyć nowoczesny system, który nie spełnia specyficznych wymagań regulacyjnych lub operacyjnych.
Powrót do realizmu: Strategia zamiast magii
Zamiast dążyć do całkowitego i gwałtownego porzucenia mainframe’ów, liderzy biznesowi powinni rozważyć podejście hybrydowe. Wiadomość ta z pewnością cieszy gigantów pokroju IBM, którzy od lat promują ideę modernizacji systemów na miejscu. Gartner sugeruje, że kluczem do sukcesu nie jest „wielka ucieczka”, ale selektywna modernizacja obciążeń i skupienie się na ulepszaniu istniejących fundamentów.
Skuteczna strategia wymaga odrzucenia narracji o „cudownych narzędziach”. Zamiast pytać, jak AI może przepisać nasz kod, należy zapytać, które procesy rzeczywiście wymagają przeniesienia do chmury, a które najlepiej funkcjonują w swoim obecnym, stabilnym środowisku.
W nadchodzących latach wygranymi nie będą firmy, które najszybciej wdrożą AI w procesach migracyjnych, ale te, które wykażą się największą powściągliwością. W starciu między obietnicami sztucznej inteligencji a brutalną logiką mainframe’ów, ta druga nadal dyktuje warunki gry. Rozważna ocena ryzyka i akceptacja faktu, że niektóre systemy są „zbyt ważne, by zawieść”, staje się obecnie najbardziej innowacyjnym podejściem w biznesie.

