W środę firma IBM ogłosiła szereg usprawnień w swojej ofercie sprzętu i oprogramowania kwantowego, które mają na celu zwiększenie efektywności oraz zmniejszenie liczby błędów w obliczeniach kwantowych. Choć żadne z tych ulepszeń nie są rewolucyjne, to ich łączny efekt w postaci bardziej wydajnego i stabilnego systemu może otworzyć nowe możliwości w zakresie obliczeń na komputerach kwantowych.
IBM rozwija się w kierunku obliczeń kwantowych
IBM od lat jest jednym z liderów w rozwijaniu technologii obliczeń kwantowych. Firma szybko zwiększyła liczbę kubitów w swoich urządzeniach, stając się jednym z pierwszych graczy, którzy osiągnęli próg 1000 kubitów. Jednak w początkowych fazach rozwoju technologii, problemy z błędami w tych kubitach sprawiały, że próby wykonywania obliczeń na tak dużych systemach były praktycznie niemożliwe. To skłoniło IBM do koncentracji na doskonaleniu mniejszych procesorów kwantowych, które, choć posiadają mniejszą liczbę kubitów, oferują większą stabilność i mniejszy wskaźnik błędów.
Nowa wersja procesora Heron, zaprezentowana przez IBM, to procesor z 133 kubitami. Choć ta liczba nadal przewyższa zdolności klasycznych komputerów do symulowania działania systemu kwantowego, kluczowym wyzwaniem pozostaje ograniczenie liczby błędów, które mogą pojawić się podczas obliczeń. Inżynierowie IBM, przy wsparciu zaawansowanej kalibracji, dokonali drobnych modyfikacji w częstotliwości działania kubitów, które pozwalają uniknąć problemów związanych z tzw. błędami TLS, czyli strukturami elektronowymi powodującymi utratę koherencji kwantowej.
Ulepszony soft
W obszarze oprogramowania IBM dokonał również znaczącej rewizji swojego stosu programistycznego. Udoskonalony system sterowania operacjami na kubitach pozwolił na przyspieszenie obliczeń, z 122 godzin wymaganych do przeprowadzenia niektórych obliczeń do zaledwie kilku godzin. Dla użytkowników oznacza to niższe koszty, a także zmniejszenie liczby błędów, ponieważ skrócenie czasu obliczeń zmniejsza możliwość wystąpienia losowych zakłóceń w trakcie procesów obliczeniowych.
Pomimo tych postępów, wyzwań związanych z obliczeniami kwantowymi wciąż nie brakuje. IBM wciąż pracuje nad technologią kwantowych korekcji błędów, która ma na celu poprawienie niezawodności obliczeń na dużych systemach. Obecnie firma koncentruje się na technice łagodzenia błędów, która polega na wzmacnianiu szumów w systemie i ich późniejszym kompensowaniu. Choć metoda ta jest obliczeniowo wymagająca, IBM stale optymalizuje ją przy użyciu nowoczesnych algorytmów i technologii, takich jak obliczenia na GPU. Dzięki tym usprawnieniom, technologia kwantowego łagodzenia błędów staje się coraz bardziej praktyczna, a obliczenia na większych obwodach kwantowych stają się bardziej wykonalne.
Przykładem zastosowania tych technologii jest modelowanie prostych systemów kwantowych, takich jak model Isinga, który IBM wykorzystał do uzyskania obiecujących wyników. Naukowcy zaczynają również stosować komputer kwantowy do symulacji struktur chemicznych, w tym niektórych prostych związków chemicznych, co jest uważane za krok w stronę praktycznych zastosowań tej technologii.
To jeszcze nie to
Chociaż wyniki te są obiecujące, eksperci IBM zaznaczają, że wciąż nie osiągnięto punktu, w którym komputery kwantowe mogą bez wątpliwości przewyższać klasyczne systemy komputerowe pod względem wydajności. Pytanie, kiedy obliczenia kwantowe staną się bardziej efektywne niż tradycyjne metody, pozostaje otwarte i będzie wymagało dalszej pracy badawczej. IBM liczy, że w ciągu najbliższych kilku lat technologia kwantowa będzie w stanie wyprzedzić klasyczne komputery w coraz szerszym zakresie zastosowań, ale to zależy od postępów w opracowywaniu nowych algorytmów kwantowych i ciągłej optymalizacji sprzętu.
Dzięki tym postępom IBM stawia kolejny krok w kierunku bardziej efektywnego wykorzystania komputerów kwantowych, jednocześnie pokazując, że, mimo wyzwań, technologia kwantowa zaczyna stawać się realnym narzędziem w nauce i badaniach.