„Zloty algorytm” – to brzmi dumnie. Rzeczywiście czuje Pan dumę ze swojego najnowszego osiągnięcia?
Duma wydaje się kategorią drugorzędną i efemeryczną wobec zbiorowego wysiłku zespołu, synergii determinacji i pasji, które w prawie alchemicznym procesie współdziałania przeistoczyły się w wymierny rezultat. To, z czym mamy do czynienia teraz, nie jest dumą jednostki, lecz raczej wspólnotową euforią, że udało nam się urzeczywistnić to, co dotąd pozostawało w sferze aspiracji.
Interesuje mnie jeszcze ten wątek przełomowości. W naszym tekście można przeczytać, że VeloxQ 1 potrafi przetwarzać 200 milionów zmiennych binarnych na standardowym sprzęcie (bez sprzętu kwantowego). Jak udało się osiągnąć taką skalę, skoro tradycyjnie algorytmy QUBO / quantum-annealing mają gigantyczne wymagania hardware’owe?
Taką skalę udało się osiągnąć wykorzystując przemyślane techniki w projektowaniu algorytmu. Po pierwsze, nasz solver nie wymaga osadzania (embeddingu) na żadną konkretną siatkę sprzętową, więc rozwiązuje problem „taki, jaki jest”, niezależnie od topologii. To usuwa znane wąskie gardło annealerów takich jak Pegasus czy Zephyr i daje przewidywalną skalowalność na zwykłych klasycznych serwerach. Po drugie, skalujemy się z gęstością sprzężeń (czyli jak wiele par zmiennych w problemie jest ze sobą faktycznie połączonych), a nie z narzutem topologii urządzenia. VeloxQ skaluje koszt z tym, co faktycznie jest w problemie (rzeczywistymi sprzężeniami), a nie z tym, co trzeba dodać, żeby problem pasował do określonej siatki topologicznej. Dlatego rzadkie instancje mogą mieć setki milionów zmiennych i nadal mieścić się w pamięci klasycznego komputera. Po trzecie, zamiast jednego wyniku dostarczamy całe spektrum niskoenergetycznych konfiguracji (tak, jak robi to kwantowy wyżarzacz) i dajemy użytkownikowi proste pokrętło kompromisu „jakość versus czas”.
Oczywiście dokładna liczba zmiennych instancji kodującej problem optymalizacyjny zależy od gęstości połączeń między zmiennymi. Dlatego nie zawsze będzie to ponad 200 milionów. Faktem jednak jest,
że VeloxQ jest wyjątkowo wydajnym algorytmem – przykładowo, CPLEX do rozwiązania podobnego problemu o liczbie zmiennych większej niż 10^8 potrzebował aż 1 TB pamięci. VeloxQ natomiast
wymaga mniej niż 100 GB dzięki sprytnej kompresji danych, efektywnemu fizycznie inspirowanemu algorytmowi oraz temu, że nie generuje dużej liczby obszernych obiektów tymczasowych.
Warto tu również doprecyzować narrację. To nie jest tak, że „algorytmy QUBO” czy „kwantowe wyżarzanie” z natury mają gigantyczne wymagania sprzętowe. Dużo zależy od struktury problemu (gęstości grafu i topologii), sposobu kodowania oraz samego solvera. Przykładowo, dla instancji natywnych względem topologii wyżarzania (np. Pegasus czy Zephyr) urządzenia D-Wave osiągają bardzo wysoką efektywność. Gdy jednak graf problemu nie jest zgodny z topologią QPU — zwłaszcza w przypadku gęstych grafów o łączności all-to-all — konieczne jest stosowanie łańcuchów qubitów pomocniczych. Taki narzut rozmiaru degraduje zarówno czas obliczeń, jak i jakość rozwiązań. VeloxQ okazuje się przełomowy właśnie w tym reżimie, tj. dla instancji nie natywnych i w bardzo dużej skali, gdzie brak konieczności osadzania oraz lepsza ekonomia pamięci i czasu obliczeń przekładają się na wyższą jakość wyników.
Kto odniesie największą korzyść z tego algorytmu — operatorzy logistyczni, firmy energetyczne, instytucje finansowe, startupy AI? I dlaczego właśnie oni?
Najwięcej zyskają branże, w których podejmuje się dużo prostych decyzji „tak/nie”, a każda z nich wpływa tylko na kilka innych. Takie problemy naturalnie tłumaczą się do QUBO (lub jego uogólnienia
do tzw. HCBO), bo wybory są binarne, np. kurier jedzie tą trasą albo nie, lub aktywo wchodzi do portfela albo nie.
W takim środowisku QUBO jest naturalnym językiem problemu, a dobry solver potrafi oddać nie tylko jeden plan, ale całe spektrum bardzo dobrych wariantów do wyboru. Rozwiązania inspirowane
kwantowo (i docelowo kwantowe) będą pomocne w wielu branżach takich jak logistyka i łańcuch dostaw, energetyka, telekomunikacja, finanse, produkcja czy odkrywanie leków.
Na przykład w logistyce problemy można względnie łatwo zbinaryzować, tj. czy kurier bierze to zlecenie, czy ciężarówka jedzie tą trasą, czy dany magazyn obsłuży ten koszyk. Konflikty mogą być
traktowane parami, tj. dwie trasy nie mogą użyć tej samej bramki o tej samej godzinie, dwa kursy kolidują czasowo, dwa ładunki nie mieszczą się razem. W ten sposób powstaje wielki, rzadki graf, który
idealnie tłumaczy się do QUBO. Podobnie w finansach decyzje o wyborze aktywów są również binarne, a ryzyko i koszty to w praktyce interakcje między parami pozycji (kowariancje, crossing costs). QUBO naturalnie modeluje np. portfele z kardynalnością. Tu liczy się rodzina bliskich optimum rozwiązań pod różne scenariusze rynkowe.
Proszę opisać, jak wygląda proces: od modelu problemu optymalizacyjnego (np. problem logistyczny) do wyniku. Co się dzieje „pod maską”? Jakie heurystyki, jakie przybliżenia są wykorzystywane? Korzystacie z rozwiązania hybrydowego, łączącego część klasyczną z częścią inspirowaną quantum?
Zaczynamy od danych biznesowych, które przekładamy na decyzje binarne (0/1) i funkcję celu. Funkcja celu to serce każdego problemu optymalizacyjnego. To matematyczny zapis tego, co chcemy osiągnąć – np. minimalizować koszt, czas, zużycie energii albo maksymalizować zysk, przepustowość, jakość. Wyobraźmy sobie problem logistyczny, w którym mamy flotę aut i listę zamówień. Można to zapisać jako równanie, które liczy łączny koszt trasy (przebyte kilometry × koszt paliwa + kary za spóźnienia + ewentualne opłaty). To równanie jest właśnie funkcją celu.
Problem zapisany zostaje jako macierz QUBO. VeloxQ jest topologicznie agnostyczny, więc rozwiązuje problem w jego natywnej strukturze. Następnie problem QUBO przekazywany jest do VeloxQ. Dla
danej instancji problemu VeloxQ generuje spektrum niskoenergetycznych konfiguracji, tj. wiele dobrych rozwiązań, nie tylko jedno. Taka konfiguracja lub konfiguracje mogą być później zdekodowane
jako rozwiązania problemu optymalizacyjnego.
Pod „maską” zachodzą skomplikowane procesy algorytmiczne inspirowane dynamiką fizyczną, stąd mówimy o algorytmie inspirowanym fizycznie (physics-inspired). Iteracyjnie „spuszcza” energię emulowanego fizycznego układu i eksploruje krajobraz, kontrolując rozrzut próbek rozwiązań. Wyobraźmy sobie, że każdy możliwy plan (np. rozkład tras dla floty) to punkt na ogromnej mapie terenu. Wysokość terenu w danym punkcie to „energia” — pojedyncza liczba, która podsumowuje wszystko, co ważne, np. koszt, opóźnienia, zużycie, a także kary za łamanie zasad („każdy klient
obsłużony tylko raz”, „nie przekraczaj pojemności” itd.). Dno doliny to świetny plan, szczyt góry to plan fatalny. To właśnie „energia układu”.
Krajobraz energii to zatem mapa wszystkich scenariuszy z naniesioną wysokością. Doliny to konfiguracje, które dobrze grają ze sobą (krótkie trasy, brak konfliktów), a grzbiety to miejsca, gdzie
decyzje się gryzą albo łamią twarde reguły. Zasady biznesowe można traktować jak barierki na szlaku. Gdy je przekroczysz, dostajesz solidną karę.
Jak porusza się po takim terenie solver typu VeloxQ? Najprościej – jak wędrowiec nocą z czołówką. Widzisz najbliższe zbocza i odruchowo schodzisz w dół małymi krokami, które obniżają „energię”. Aby nie ugrzęznąć w najbliższej dolinie wędrowiec co jakiś czas pozwala sobie na krótki marsz „pod górę”, skręt na inny grzbiet albo większy skok w innym kierunku, żeby sprawdzić sąsiednie kotliny.
Co do hybrydowego charakteru rozwiązania, to VeloxQ może być częścią tzw. solvera hybrydowego, czyli „silnika” optymalizacyjnego, który łączy kilka komplementarnych metod w jednej pętli, tj.
klasyczne algorytmy (dokładne i heurystyczne) z modułem kwantowym QPU. Część klasyczna pilnuje więzów i składa globalny plan, a akcelerator generuje szybko wiele dobrych kandydatów w najtrudniejszych momentach. Rozwiązania krążą między warstwą klasyczną i kwantową, są naprawiane i ulepszane, aż powstaje zestaw akceptowalnych rozwiązań.
W testach porównawczych VeloxQ miał przewagę nad systemami takimi jak D-Wave Advantage/Advantage2, Kipu Quantum, Kerberos i inne. W jakich scenariuszach przewaga była największa? Czy są też przypadki, gdzie VeloxQ jeszcze nie dorównuje hardware’owym rozwiązaniom?
Nie odnotowaliśmy dotąd przypadków, w których nasze algorytmy — w tym VeloxQ — ustępowałyby wyżarzaczom kwantowym. Nawet w benchmarkach celowo uprzywilejowujących hardware kwantowy
(np. skrajnie rzadkie instancje, metryki liczące wyłącznie „pure compute”), nasze metody wykazują wyraźną przewagę.
W horyzoncie średnio- i długoterminowym spodziewamy się dominacji podejść hybrydowych. Dlatego w Quantumz już teraz rozwijamy architektury łączące zasoby klasyczne i kwantowe (nie tylko wyżarzanie), co pozwala uzyskiwać rozwiązania jednocześnie szybsze i — co ważniejsze — wyższej jakości niż każda z technologii w izolacji.
Największą przewagę uzyskujemy na instancjach, których graf problemu jest nienatywny względem topologii QPU — zazwyczaj gęstych, nierzadko bliskich pełnym grafom. Takie zadania wymagają
kosztownego osadzania (minor embedding), które zwiększa efektywny rozmiar instancji, degraduje jakość rozwiązań i wydłuża czas obliczeń. Ograniczona liczba kubitów dodatkowo zawęża przestrzeń
skalowania, przez co duże, praktyczne przypadki pozostają dziś poza zasięgiem podejść wyłącznie kwantowych.
Przejdźmy teraz od testów do realnych warunków. Może Pan zdradzić, gdzie VeloxQ był już wdrożony pilotowo w warunkach produkcyjnych (np. w logistyce, energetyce, fintech)? Jakie były efekty takiej implementacji: oszczędność czasu, kosztów, poprawa jakości czy trafności rozwiązań?
Aktualnie SDK VeloxQ jest testowane przez pięć zaprzyjaźnionych grup akademickich (AGH / Cyfronet, Eberhard Karls Universität Tübingen, CAMK, Wigner Research Centre for Physics, Department of
Physics and Quantum Science Institute UMBC). W ramach każdej grupy badawczej VeloxQ jest używany do innych typów problemów i do rozwiązywania innych instancji problemów QUBO. Testy jeszcze
trwają, więc na efekty implementacji musimy jeszcze poczekać. Naszym celem po tych testach jest bycie standardem rynkowym, aby zamiast D-wave’a grupy badawcze budżetowały VeloxQ SDK.
W Waszych materiałach prasowych sporo jest o pracy zespołu fizyków, matematyków i informatyków, o opracowaniu bezprecedensowego algorytmu. Jakie patenty lub publikacje stoją za VeloxQ? Co chroni Wasz algorytm przed konkurencją?
Zespół jest bardzo aktywny naukowo, publikujemy nie tylko opracowania dotyczące samego VeloxQ, ale również wyniki badań nad kwantową supremacja, a to jest jeden z najbardziej interesujących i
gorących tematów ostatnich lat, będący na styku świata nauki i biznesu. Jesteśmy w procesie patentowania naszych rozwiązań. Algorytm jest dobrze chroniony przed konkurencją, bowiem kod
źródłowy nie jest pokazywany w publikacjach, sama technologia nie jest też dyskutowana w publikacjach. Staramy się utrzymywać równowagę między otwartością naukową a ochroną kluczowego know-how.
Publikujemy wyniki, które potwierdzają nasze podejście i pokazują potencjał technologii. W publikacjach pojawiają się zwłaszcza te aspekty, które są istotne z perspektywy walidacji naukowej i budowania wiarygodności w środowisku akademickim i branżowym. Natomiast najbardziej wrażliwe elementy – takie jak szczegóły fundamentów fizycznych działania solvera, konkretne metody implementacji, sposób łączenia danych, konkretne architektury czy rozwiązania inżynieryjne pozostają celowo nieujawnione. Są one silnie chronione wewnętrznie jako know-how, bo to właśnie one stanowią naszą przewagę konkurencyjną.
Siła spółki nie sprowadza się do kilku prostych zasad działania, tylko opiera się na wieloletnim doświadczeniu zespołu R&D, pomysłach założycieli, czy zbudowanym ekosystemie. Myślimy jednak o ochronie algorytmu bardzo poważnie. Z tego też powodu od początku budujemy technologię w taki sposób, by kluczowe komponenty były zabezpieczone. Co najważniejsze, wiele wartościowych elementów naszej technologii to wiedza ukryta – taki know-how, którego nie da się łatwo zrekonstruować na podstawie publikacji czy demo. To są efekty lat pracy, iteracji i doświadczenia zespołu, których nie da się po prostu skopiować.
Nachwaliliśmy się Waszego rozwiązania, to teraz na chwilę zatrzymajmy się przy jego ograniczeniach. Bo przecież każdy algorytm ma swoje granice. W jakich przypadkach VeloxQ może się nie sprawdzić? Czy będą to np. dane o określonej strukturze, bardzo zwarta topologia grafu albo zadania o ekstremalnej złożoności komunikacyjnej?
VeloxQ to wysoce zoptymalizowane rozwiązanie klasyczne, które bardzo efektywnie wykorzystuje nowoczesne procesory (także GPU). Jak każde podejście klasyczne, pozostaje jednak ograniczone fundamentalną złożonością problemów kombinatorycznych, więc w dłuższym horyzoncie ustąpi miejsca nowszym paradygmatom — w tym podejściu kwantowemu lub hybrydowemu. VeloxQ najlepiej sprawdza się tam, gdzie problem jest duży, rzadki i binarny, a biznes woli dostać kilka świetnych rozwiązań szybko niż jeden najlepszy wynik po dłuższym oczekiwaniu. Czyli podobnie jak wyżarzacze kwantowe, VeloxQ rozwiązuje nieograniczone problemy drugiego rzędu (QUBO).
Choć to szeroka i praktyczna klasa, wiele realnych zadań obejmuje interakcje wyższych rzędów i więzy, które muszą być ujęte explicite, np. poprzez redukcję lub metody hybrydowe, nad którymi aktywnie
pracujemy.
Czy VeloxQ może mieć zastosowanie w obszarach wymagających odporności i niezawodności, np. sieciach krytycznych, systemach bezpieczeństwa, zarządzaniu kryzysowym? Czy już prowadzicie rozmowy z przedstawicielami z takich branż?
Generalnie tak, bo klasa problemów „odporność i niezawodność” bardzo dobrze pasuje do sposobu pracy VeloxQ. Solver działa jak szybki generator wielu bardzo dobrych scenariuszy, który potrafi składać
ogromne, ale rzadkie sieci decyzji w horyzoncie sekund lub minut. A do tego został zaprojektowany tak, aby łatwo wpinać go w hybrydę z innymi metodami (w tym z modułem kwantowym), gdy takie pojawią się w praktyce.
Dlaczego to ma sens akurat w sieciach krytycznych, bezpieczeństwie i zarządzaniu kryzysowym? W tych obszarach liczą się szybkość przeliczeń, skala i gotowość rozwiązywania alternatywnych scenariuszy. W praktyce oznacza to, że np. w energetyce można szybko wygenerować różne, wykonalne plany pracy, a w logistyce i ratownictwie kilka równorzędnych scenariuszy alokacji zasobów i tras ewakuacji, gotowych do użycia, gdy warunki zmieniają się z minuty na minutę. VeloxQ ma cechę wymienności między jakością a latencja, umożliwiając w ten sposób dostrojenie do oczekiwanej formy rezultatu.
Naturalnie, w obszarze bezpieczeństwa, czy mission-critical potrzebne są dodatkowe warstwy jak pilnowanie twardych więzów (żeby wynik był od razu wykonalny i audytowalny) oraz tam, gdzie wymagany jest certyfikat optymalności, współpraca z solverami dokładnymi. VeloxQ jest heurystyką QUBO bez gwarancji optymalności, więc w krytycznych zastosowaniach sens ma układ hybrydowy z
częścią, która adresuje kwestie więzów w rozwiązywanym problemie. To jest obszar, nad którym intensywnie pracujemy obecnie. Rezultatem tych prac ma być gotowy do uruchomienia w sprzężeniu
z QPU – co-procesor kwantowy.
Na tym etapie nie prowadzimy rozmów ani pilotaży w obszarach sieci krytycznych, bezpieczeństwa i zarządzania kryzysowego, ale traktujemy je jako naturalne kierunki rozwoju i aktywnie obserwujemy
potencjalne zastosowania. Równolegle porządkujemy wymagania regulacyjne i operacyjne, tak aby w chwili pojawienia się partnera branżowego móc szybko uruchomić proof-of-concept.
Algorytm działa na standardowym sprzęcie – jaka jest planowana forma udostępnienia: jako licencja, SaaS, API, czy też raczej jako dedykowane wdrożenia korporacyjne? Jak wygląda model cenowy, by mógł być dostępny dla mniejszych firm, dla startupów?
Chcemy, aby korzystanie z VeloxQ było równie proste jak z dowolnej usługi w chmurze. Dlatego planujemy dwie ścieżki dostępu. Pierwsza to API, tj. podłączasz klucz, wysyłasz instancję QUBO,
ustawiasz szybkość versus jakość, a po chwili odbierasz paczkę rozwiązań i metryki. Druga ścieżka dostępu to SDK (na start Python), który znacząco upraszcza integrację. W obu przypadkach chodzi o to,
aby deweloper mógł wpleść solver w istniejący system bez tygodni integracji.
Model cenowy ma być równie przewidywalny. Płacisz za pakiet minut miesięcznie, tj. za realny czas pracy solvera. Wystarczy, że wybierzesz rozmiar paczki minut. Dla młodych zespołów planujemy niski
próg wejścia w postaci pakietu deweloperskiego typu „starter” na testy i małe, elastyczne pakiety, które pozwalają zbudować proof-of-concept. Dzięki temu VeloxQ ma być dostępny zarówno dla wielkich organizacji, jak i dla startupów, które chcą szybko sprawdzić, czy QUBO rozwiąże ich realny problem.
Wspomina Pan o planach wersji VeloxQ 2 oraz integracji z rzeczywistym sprzętem kwantowym. Jak to się ma do obecnych barier technologicznych (np. stabilność qubitów, hałas)? W jakim horyzoncie VeloxQ 2 może być użyteczny w skali, gdzie hardware kwantowy naprawdę się liczy?
VeloxQ 2 projektujemy tak, żeby rozwijał się wraz z rozwojem sprzętu kwantowego. Jest to rozwiązanie modułowe, które może stanowić co-procesor komputerów kwantowych zarówno w fazie NISQ (Noisy Intermediate-Scale Quantum Computing), jak i w przypadku bardziej rozwiniętych systemów kwantowych. Największe bariery po stronie hardware’u to wciąż niestabilność qubitów, szum i koszty
korekcji błędów. W krótkim terminie (teraz–2026) sensowne są hybrydy NISQ, gdzie QPU pełni rolę szybkiego samplera dla trudnych, niewielkich podgrafów, które dobrze mieszczą się w jego topologii.
Ma to coraz większy sens m.in. na annealerach, bo nowe układy zwiększają łączność, obniżają szum i skracają czasy dojścia do rozwiązań. VeloxQ 2 będzie tu „dyrygentem”, tj. dekomponuje problem,
wysyła fragmenty na QPU, a resztę domyka klasycznie. VeloxQ 2 nie czeka na „idealny” sprzęt. Ma działać dziś jako szybki, hybrydowy sampler i włączać QPU tam, gdzie to ma sens. Im lepsza stabilność i mniejszy szum po stronie urządzeń, tym częściej i głębiej opłaca się wykorzystywać QPU.
Algorytmy optymalizacyjne odgrywają coraz większą rolę, ale też niosą za sobą ryzyka. Wystarczy wymienić bias, brak przejrzystości, trudność w audycie. Jak w Quantumz.io dbacie o to, żeby VeloxQ był
algorytmem odpowiedzialnym?
Myślimy o VeloxQ jak o systemie z jasnym pochodzeniem danych, wyjaśnialnością decyzji, kontrolą ryzyk i nadzorem człowieka. Warto zacząć chociażby od przejrzystości i audytowalności. Każde
uruchomienie ma tzw. manifest w postaci wersji, parametrów, ziarna losowości, raportu alternatyw oraz trybu deterministycznego do odtworzenia wyniku. Po drugie, możliwość pozostawienia human-
in-the-loop. Wynik solvera to zbiór wykonalnych rozwiązań z metrykami i uzasadnieniem, ale to operator wybiera i zatwierdza rozwiązanie, a polityki akceptacji oraz rejestr decyzji wspierają
audytowalność. Dzięki temu dostarczamy nie tylko dobre rozwiązanie, ale także uzasadnienie, podobnie jak się tego dziś oczekuje od odpowiedzialnych systemów AI.