Intel wytacza ciężkie działa w postaci procesorów Core Ultra trzeciej generacji, znanych jako Panther Lake, które oparte są na technologii 18A, czyli 1,8 nanometra. Po drugiej stronie rynkowej barykady stoi AMD ze swoimi układami Ryzen, wypiekanymi w tajwańskich fabrykach TSMC w procesie 3 nm. Na papierze przewaga Intela wydaje się miażdżąca, sugerując technologię niemal o połowę mniejszą i nowocześniejszą. Jednak w portfelu dyrektora finansowego ta różnica może okazać się błędem statystycznym. W świecie, gdzie „nanometr” stał się marką, a nie miarą, biznes musi nauczyć się patrzeć na to, co naprawdę napędza wydajność, ignorując etykiety na pudełkach.
Gdy menedżerowie IT przeglądają specyfikacje nowych laptopów czy serwerów, ich wzrok naturalnie kieruje się na cyfry, ponieważ w branży technologicznej mniejsze zazwyczaj oznacza lepsze, szybsze i bardziej oszczędne. Producenci doskonale zdają sobie z tego sprawę, dlatego wyścig zbrojeń w sektorze półprzewodników przeniósł się z laboratoriów fizycznych do działów marketingu. Aby podjąć świadomą decyzję zakupową na lata 2025–2026, trzeba zrozumieć, gdzie kończy się inżynieria, a zaczyna gra słów.
Wielka iluzja nanometra
Przez dekady branża IT operowała prostą i zrozumiałą walutą. Jeszcze w 1995 roku, gdy mówiliśmy o procesie technologicznym 350 nm, oznaczało to, że bramka tranzystora na płytce krzemu faktycznie miała długość 350 nanometrów. Inżynier i handlowiec mówili tym samym językiem, a nazwa węzła była bezpośrednim odzwierciedleniem fizycznej rzeczywistości. Ten porządek załamał się jednak pod koniec lat dziewięćdziesiątych wraz z wprowadzeniem nowych technologii budowy mikrotranzystorów, które zerwały bezpośrednie połączenie między nazwą węzła a fizycznym wymiarem komponentów.
Dziś nazwy takie jak „Intel 4”, „18A” oznaczające 18 Angstromów, czy „TSMC N3” to w przeważającej mierze nazwy handlowe. Traktowanie ich jako technicznej miary długości jest błędem mogącym prowadzić do mylnych wniosków biznesowych. To sytuacja analogiczna do rynku motoryzacyjnego, gdzie oznaczenie modelu samochodu, na przykład BMW 330, nie musi już oznaczać silnika o pojemności trzech litrów. Cyfra służy obecnie pozycjonowaniu produktu w ofercie, a nie precyzyjnemu opisowi jego parametrów technicznych.
Dla biznesu oznacza to konieczność zmiany podejścia do analizy ofert. Fakt, że jeden procesor jest oznaczony jako „1,8 nm”, a drugi jako „3 nm”, nie oznacza automatycznie, że ten pierwszy jest fizycznie znacznie mniejszy. W rzeczywistości różnice mogą być minimalne, a w skrajnych przypadkach relacja gęstości upakowania może być nawet odwrotna do tego, co sugerują liczby.
Twarda waluta krzemu
Skoro nanometry są umowne, świadomy inwestor lub szef działu IT powinien patrzeć na inne wskaźniki. Jeśli zajrzymy pod maskę procesorów Panther Lake czy najnowszych Ryzenów, znajdziemy obiektywne parametry, o których działy PR mówią niechętnie, a które są kluczowe dla inżynierów. Są to przede wszystkim Gate Pitch, czyli minimalna odległość między poszczególnymi tranzystorami, oraz Metal Pitch, oznaczający minimalną odległość między miedzianymi ścieżkami łączącymi te elementy.
Analiza tych twardych danych prowadzi do zaskakujących wniosków. Porównując obecną generację procesów, okazuje się, że technologia Intel 4 oraz konkurencyjna TSMC N4 mają niemal identyczne parametry fizyczne, ze skokiem bramki oscylującym w granicach 50–51 nanometrów. Mimo różnych nazw handlowych, gęstość upakowania technologii jest do siebie bardzo zbliżona. Jeszcze ciekawiej zapowiada się przyszłość, w której Intel promuje proces 18A sugerujący 1,8 nm, podczas gdy TSMC szykuje się do wdrożenia procesu 2 nm. Paradoksalnie, według wielu analiz technicznych, to tajwańskie „2 nm” może oferować wyższą gęstość tranzystorów niż amerykańskie rozwiązanie. Intel nadrabia marketingiem, sugerując liderowanie, ale w praktyce obaj giganci idą łeb w łeb, a ich węzły będą się spotykać w połowie drogi pod względem realnej wydajności.
Fizyka przekłada się na koszty
Mimo że etykiety są mylące, postęp technologiczny jest realny i kluczowy dla kosztów prowadzenia biznesu, czyli TCO. Niezależnie od nazewnictwa, dążenie do gęstszego upakowania tranzystorów wynika z nieubłaganych praw fizyki, ponieważ mniejszy tranzystor z krótszą drogą między źródłem a drenem wymaga niższego napięcia do przełączenia stanu logicznego. Dla przedsiębiorstwa przekłada się to bezpośrednio na efektywność energetyczną oraz wydajność termiczną.
Chip wykonany w nowszym, gęstszym procesie zużywa mniej energii przy tym samym obciążeniu. W skali jednego laptopa oznacza to dodatkową godzinę pracy na baterii podczas podróży służbowej, natomiast w skali centrum danych przekłada się na tysiące złotych oszczędności na rachunkach za prąd. Równie istotny jest aspekt termiczny, gdyż mniejsze zużycie energii oznacza mniej generowanego ciepła. Dzięki temu procesory mogą pracować z wyższymi częstotliwościami bez ryzyka dławienia termicznego, co zapewnia stabilniejszą pracę wymagających aplikacji. Dlatego Intel Panther Lake będzie z natury lepszy od swojego poprzednika nie ze względu na nazwę „18A”, ale dlatego, że inżynierowie faktycznie ulepszyli fizyczną strukturę chipa, co jest prawdą również w przypadku AMD korzystającego z ulepszeń TSMC.
Strategiczna pułapka jednego dostawcy
W tej technologicznej układance istnieje jeszcze jeden element ryzyka biznesowego, związany z brakiem kompatybilności. Procesy produkcyjne Intela, TSMC i Samsunga rozjechały się drastycznie, a każdy gigant stosuje inne metody produkcji chipów, wdrażając technologie takie jak FinFET czy RibbonFET w różnym czasie. Oznacza to, że projektanci układów, tacy jak AMD czy NVIDIA, są mocno przywiązani do wybranej fabryki i nie mogą przenieść produkcji do konkurenta z dnia na dzień. Dostosowanie projektu do innej fabryki to proces trwający nawet rok i generujący ogromne koszty. Wybierając platformę sprzętową do firmy, decydenci wybierają więc nie tylko procesor, ale cały łańcuch dostaw, gdzie stabilność partnera produkcyjnego staje się czynnikiem strategicznym, ważniejszym niż marketingowa nazwa nanometra.
Zbliżamy się do momentu, w którym porównywanie procesorów wyłącznie na podstawie litografii staje się bezcelowe. Intel Panther Lake i nadchodzące generacje Ryzenów będą potężnymi układami, jednak ich wartość dla biznesu nie wynika z etykiet na pudełku. Przy planowaniu zakupów infrastruktury kluczowym wskaźnikiem powinien być współczynnik wydajności do wata. To ten parametr decyduje o tym, czy inwestycja w nowy sprzęt przełoży się na realny wzrost efektywności pracy i obniżenie kosztów operacyjnych przedsiębiorstwa.
