AI generuje kolejny kryzys. Tym razem nie na rynku pracy. Czy łańcuchy dostaw znów są zagrożone?

Dodane:

Przemysław Zieliński Przemysław Zieliński

AI generuje kolejny kryzys. Tym razem nie na rynku pracy. Czy łańcuchy dostaw znów są zagrożone?

Udostępnij:

Popyt na sztuczną inteligencję był dotąd opisywany głównie w kategoriach „rewolucji technologicznej” i wyścigu zbrojeń big techu. Tymczasem mamy coraz więcej dowodów, że AI może być źródłem nowego, globalnego kryzysu w łańcuchach dostaw. Owszem, może mniej spektakularnego niż pandemiczny paraliż fabryk samochodów, ale potencjalnie groźniejszego w skutkach.

Dziś nie brakuje już kontenerów ani samochodowych chipów. Brakuje pamięci, mocy obliczeniowej czy infrastruktury data center. A przede wszystkim, brakuje energii do zasilania sztucznej inteligencji.

Od ChatGPT do kryzysu pamięci: jak AI skasowała rynek chipów

Autorzy najnowszej analizy zamieszczonej w serwisie Reutersa wyliczają, jak globalny boom na generatywną AI zamienił rynek pamięci w pole bitwy. Brakuje niemal wszystkiego: od klasycznych kości DRAM po wyspecjalizowaną pamięć HBM karmiącą układy Nvidii w centrach danych. Konkrety? Spójrzcie na te kilka faktów, które pokażą Wam skalę problemu:

  • zapasy DRAM u dostawców spadły z 13–17 tygodni pod koniec 2024 r. do zaledwie 2–4 tygodni w październiku 2025 r.;
  • ceny wielu typów pamięci ponad dwukrotnie wzrosły od lutego, co skłoniło część sprzedawców do wprowadzenia limitów zakupów i podwyżek dla konsumentów.
  • producenci smartfonów, tacy jak Xiaomi i Realme, otwarcie mówią o konieczności podniesienia cen urządzeń nawet o 20–30%, bo rosnące koszty pamięci trudno „ukryć” w innych podzespołach.

Skąd ten kryzys? Źródła są dwa – strukturalne i strategiczne.

Po pierwsze, po premierze ChatGPT w 2022 r. i eksplozji projektów LLM cała branża ruszyła do agresywnej rozbudowy infrastruktury AI. To oznaczało bezprecedensowy skok zapotrzebowania na zaawansowane układy i pamięć HBM. Producenci, tacy jak Samsung, SK Hynix i Micron, zaczęli przerzucać moce produkcyjne z „zwykłej” pamięci do produktów o wyższej marży – dokładnie tych, które zasilają układy Nvidii i innych dostawców GPU.

Po drugie, zmiana zbiegła się w czasie z cyklem wymiany sprzętu w klasycznych centrach danych, PC i smartfonach, gdzie nadal królują starsze generacje pamięci (DDR4/DDR5, LPDDR). Niektóre firmy zapowiadały wręcz wygaszanie starszych linii DDR4, po czym – pod presją rynku – musiały się z tych planów wycofać.

Efekt jest łatwy do przewidzenia. Branża dostała zadyszki. Segment pamięci premium dla AI wciąż ma za mało mocy, a jednocześnie tradycyjna elektronika zaczyna dusić się z powodu niedoborów starszych układów.

„Wszyscy błagają o dostawy”, czyli technologiczna wojna o pamięć

Reuters opisuje sceny, które kilka lat temu kojarzyły się z rynkiem ropy, a nie z rynkiem RAM-u:

A teraz szybki rzut oka na to, co dzieje się na drugim końcu łańcucha dostaw:

  • w tokijskiej dzielnicy Akihabara sklepy wprowadzają limity na zakup RAM-u i dysków, żeby powstrzymać panikę i spekulację,
  • w Shenzhen pośrednicy handlują pamięcią jak kontraktami terminowymi – oferty cenowe są ważne nie miesiąc, a… kilka godzin,
  • rośnie popyt na wtórny rynek „odzyskiwanych” kości pamięci z wysłużonych serwerów.

To pokazuje, że mamy do czynienia nie z klasycznym cyklem koniunkturalnym, lecz z strukturalnym niedoborem kluczowego zasobu dla gospodarki cyfrowej.

Było, było, nie ma: co z tym GPU?

W tle kryzysu pamięci toczy się inny, dobrze już znany spór o układy GPU i moce obliczeniowe. Szacunki branżowe mówią wprost: najnowsze GPU Nvidii są wyprzedane do 2026 roku, a listy oczekujących w chmurach publicznych ciągną się kwartałami. Nvidia podniosła zamówienia na płytki pamięci o ok. 50% na lata 2024–2025, ale nawet to nie wystarczyło, bo zdolności produkcyjne TSMC dla najbardziej zaawansowanych procesów są skończone i dzielone między kilku gigantów (Nvidia, Apple, producenci SoC).

Jakby tego było mało… Z coraz większą intensywnością występuje zjawisko, przed którym od dawna ostrzegali analitycy. „Wąskim gardłem” przestała być sama produkcja płytek, a stało się nim zaawansowane pakowanie chipów – w szczególności technologia CoWoS używana do łączenia GPU z pamięcią HBM. TSMC przyznaje, że to właśnie tam leży kluczowy ogranicznik podaży, a obecna rozbudowa mocy potrwa co najmniej do 2026 roku.

Według niektórych analiz, Nvidia może konsumować nawet około 60–65% całej dostępnej przepustowości CoWoS w TSMC, co jeszcze bardziej ogranicza dostępność dla mniejszych graczy. To oznacza, że nawet jeśli branża pamięci poradzi sobie z niedoborami, AI wciąż może hamować na etapie „ostatniej mili” produkcji – zaawansowanego montażu i pakowania.

Słowo o betonie, stali, kablach i transformatorze

Skąd wzięła się nam ta techniczna brygada? Z tego, że AI to nie tylko GPU i pamięć. To również gigantyczny, globalny program inwestycyjny w data center – porównywalny skalą do budowy sieci kolejowych czy elektryfikacji w XX wieku. Według wyliczeń McKinsey, do 2030 r. świat będzie musiał wydać nawet ok. 6,7 bln dol. na infrastrukturę data center, z czego ponad 5 bln na obiekty przystosowane do obciążeń AI.

To z kolei generuje nową falę presji na łańcuchy dostaw materiałów i usług:

Coraz częściej pada też teza, że boom na AI jest mniej „bańką spekulacyjną”, a bardziej długotrwałym programem przemysłowym. Tyle że prowadzonym chaotycznie, przez setki firm naraz, bez jednolitej koordynacji energetycznej i infrastrukturalnej.

Geopolityka nie ułatwia sprawy

Do czysto ekonomicznych napięć dochodzi jeszcze warstwa geopolityczna:

W praktyce oznacza to, że dostęp do mocy obliczeniowej i pamięci staje się elementem gry politycznej – a nie tylko wynikiem rynkowego popytu i podaży.

Kryzys inny niż „chipowa pandemia”?

Obecny kryzys różni się od głośnego niedoboru chipów z lat 2020–2021 w kilku kluczowych punktach. Przede wszystkim, dotyczy warstw głębiej położonych w łańcuchu dostaw. Nie są to już proste mikrokontrolery do aut, ale zaawansowane pamięci czy infrastruktura energetyczna. Eksperci zwracają uwagę, że „pierwszy” kryzys skończył się głównie na poziomie płytek pamięci, natomiast dziś widać, jak wąskie gardła zaczęły pojawiać się w takich obszarach jak substraty czy specjalistyczne komponenty.

Obecny kryzys dotyka niewielkiej liczby graczy. Kilku producentów pamięci, dwóch–trzech liderów foundry i zaledwie jednej–dwóch firm zdominowało rynek GPU dla AI. To sprawia, że każde strategiczne przesunięcie mocy produkcyjnych ma efekt domina. Obserwowane zawirowania mają potencjalny wpływ makroekonomiczny. Jak zauważa cytowany przez Reutersa ekspert, niedobór pamięci przestał być „problemem komponentu” i stał się realnym ryzykiem dla wzrostu produktywności i ścieżki inflacji. Jeśli wdrożenia AI spowolnią, wolniej pojawią się też oczekiwane efekty efektywnościowe w gospodarce.

I wreszcie, ta trudna sytuacja faworyzuje największych. Tylko giganci z bilionowymi kapitalizacjami są w stanie płacić za „otwarte” kontrakty, rezerwować moce w fabrykach z wyprzedzeniem na kilka lat i budować własne elektrownie czy farmy OZE pod data center. Mniejsze firmy, startupy, a nawet część uczelni ryzykują, że zostaną wypchnięte z kolejki po zasoby.

Kto ma koło ratunkowe, a kto tratwę?

Odpowiedzi na kryzys są dziś wielotorowe:

  • producenci pamięci (Samsung, SK Hynix, Micron) zapowiadają miliardowe inwestycje w zwiększenie mocy – ale nowe fabryki i linie dla „starej” pamięci pojawią się dopiero w latach 2027–2028, co oznacza kilka „chudych” lat dla rynku;
  • TSMC i inni gracze pakowania rozwijają nowe technologie (np. CoPoS) mające odciążyć przeciążone CoWoS i obniżyć koszty zaawansowanego pakowania układów AI;
  • Intel i jemu podobni gracze starają się wykorzystać okazję, promując własne rozwiązania (EMIB, Foveros) jako alternatywę dla CoWoS;
  • operatorzy data center wdrażają strategie hybrydowe, czyli np. trenowanie dużych modeli w chmurze (gdzie hyperscalerzy mają zapewnione kontyngenty H100) i uruchamianie inferencji na tańszym, lokalnym sprzęcie, aby zmniejszyć zależność od najdroższych GPU;
  • część firm inwestuje w optymalizację modeli i oprogramowania, by zredukować zapotrzebowanie na pamięć (quantization, pruning, mniejsze architektury), choć nie rozwiązuje to problemu u źródła.

W tle toczy się też dyskusja o nowym modelu regulacji i wsparcia infrastruktury, zwłaszcza energetycznej, bez której dalsza rozbudowa AI może po prostu zacząć gonić własny ogon.

W dłuższej perspektywie może się jednak okazać, że ten kryzys – podobnie jak wcześniejsze „przeinwestowania” w kolei czy światłowody – zbuduje fundament pod kolejną fazę rozwoju gospodarki. Warunkiem jest to, by wyścig o AI nie doprowadził do całkowitego zablokowania wejścia na rynek dla mniejszych graczy oraz by inwestycje w infrastrukturę były skoordynowane z możliwościami sieci energetycznych i środowiska.

Dziś jednak jesteśmy dokładnie w środku burzy: AI przyspiesza, łańcuchy dostaw pracują na granicy wydolności, a politycy dopiero zaczynają rozumieć, że kryzys pamięci i mocy obliczeniowej to nie niszowa sprawa branży półprzewodników, lecz kwestia strategiczna dla całej gospodarki.

Czytaj także: