AI gasi światło. Skąd brać prąd na robienie filmików ze Stephenen Hawkingiem jeżdżącym po rampie?

Dodane:

Przemysław Zieliński Przemysław Zieliński

AI gasi światło. Skąd brać prąd na robienie filmików ze Stephenen Hawkingiem jeżdżącym po rampie?

Udostępnij:

Technologiczny zachwyt nad generatywną sztuczną inteligencją i możliwościami, które pokazuje AI, musi być równoważony twardą kalkulacją: ile energii zużywa infrastruktura, która ją podtrzymuje. Spójrzmy na jeden z najbardziej palących tematów branży.

Wszyscy marzyliśmy o równym dostępie do sztucznej inteligencji. Wiedzieliśmy, że mając tak potężne narzędzie, będziemy zdolni do wielkich czynów. I że wyposażeni w AI, wprowadzimy ludzkość w nową erę.

Wyświetl ten post na Instagramie

 

Post udostępniony przez DJ Skandalous (@dj_skandalous)

Nie oszacowaliśmy tylko, ile przyjdzie nam za to zapłacić.

GenAI droższe niż Bitcoin?

Zgodnie z danymi Międzynarodowej Agencji Energetycznej (IEA), zapotrzebowanie energetyczne centrów danych na świecie ma się ponad dwukrotnie zwiększyć do 2030 roku, osiągając poziom około 945 TWh rocznie — i to przy założeniu umiarkowanego wzrostu i efektywności. W analizach przeprowadzonych przez CarbonBrief wskazuje się, że dziś AI odpowiada za około 5 – 15 % zużycia energii w centrach danych, ale do 2030 r. ten udział może wzrosnąć do 35–50 %. W raporcie IMF „Power Hungry: How AI Will Drive Energy Demand” autorzy analizują, jak ekspansja centrów danych – napędzana przez AI – wpłynie nie tylko na zużycie energii, ale też na ceny prądu i emisje.

Również Deloitte prognozuje, że choć w 2025 r. centra danych pochłoną ok. 2 % globalnego zużycia energii (536 TWh), to do 2030 roku zapotrzebowanie może się podwoić w scenariuszach wzrostowych. Na poziomie USA, centra danych zużywały w 2023 r. około 176 TWh, co stanowiło ~4,4% całkowitego zużycia elektryczności w kraju. Istnieją prognozy, że generatywna AI może zużywać więcej prądu niż kopanie kryptowalut, np. przez porównania do wydobycia Bitcoina — szacunki mówią, że AI może pochłaniać prawie połowę energii centrów danych globalnie do końca 2025 r.

Te liczby prowokują pytanie: czy rozwój AI nie zderzy się z ograniczeniami energetycznymi? Czy infrastruktura sieciowa i elektryczna da radę?

Co wpływa na wzrost ceny prądu?

Spójrzmy na największe wyzwania, które wpływają na obecny stan rzeczy.

  1. Trening modeli AI — zwłaszcza dużych sieci neuronowych — wymaga wydajnych kart graficznych (GPU) lub wyspecjalizowanych akceleratorów. Te komponenty zużywają znacznie więcej prądu niż klasyczne serwery: etap uczenia (training) i etap inferencji (generowanie odpowiedzi) są z kolei równie energochłonne.
  2. Szybkie skoki mocy (load transients) – systemy AI generują gwałtowne “skoki” w zapotrzebowaniu na moc (np. gdy model nagle zaczyna wykonywać dużą partię zapytań). Tradycyjne infrastruktury elektroenergetyczne mogą mieć trudności z obsługą takich dynamicznych wahań. W publikacji „AI Load Dynamics” autorzy analizują, jak projektowanie obwodów zasilających, elektronika mocy i buforowanie energii muszą być przystosowane do takich realiów.
  3. Obciążenie sieci i stabilność – centra AI często działają w stałym trybie, niezależnie od pory dnia, co stawia wyzwania dla sieci dystrybucyjnych. Publikacja „Electricity Demand and Grid Impacts of AI Data Centers” omawia, jak zróżnicowane etapy AI (training, inference, fine tuning) współoddziałują z systemem elektroenergetycznym — zarówno w ujęciu krótkoterminowym (odpowiedź w czasie rzeczywistym), jak i strategii długofalowej.
  4. Chłodzenie i zużycie wody – centrala danych generuje ścieżki cieplne, które trzeba odprowadzać — często za pomocą systemów chłodzenia z użyciem wody lub energii. To oznacza dodatkowe zużycie wody i energii. AI „pod maską” niesie nie tylko zapotrzebowanie elektryczne, ale też większy ślad wodny.
  5. Modele centralizacji vs rozproszenia w miarę jak AI staje się krytyczną technologią, widoczne stają się strategie rozproszone – edge AI, lokalne modele, przetwarzanie blisko użytkownika — by ograniczyć transmisje danych i koszty energii. Ale to wymaga kompromisów w wydajności i kosztach.

Koszty AI ponosimy wszyscy

Aby jeszcze bardziej skomplikować obraz dzisiejszego krajobrazu modelowanego przez AI, trzeba dodać, że za rozwój sztucznej inteligencji płacimy wszyscy. Bez względu na to, czy codziennie generujemy tony śmiesznych obrazków, na masową skalę tworzymy eksperckie posty na LinkedIna albo zaprzęgamy LLMy do odrabiania za nas lekcji domowych. Co więcej – sztuczna inteligencja nie tylko generuje nowe koszty, ale także podnosi już te istniejące.

  1. Wzrost cen energii i ryzyko inflacji –  napędzane przez AI zapotrzebowanie może podnosić ceny energii dla konsumentów. Redakcja TechCrunch ostrzega, że konsumenci już obawiają się, że centra danych podbiją ich rachunki za prąd. W raporcie IMF zakłada się, że w scenariuszach ograniczonego rozwoju odnawialnych źródeł oraz zaległości w rozbudowie sieci, ceny energii w USA mogłyby wzrosnąć o ~8,6%.
  2. Ślad węglowy i trwałość klimatyczna – chociaż emisje z centrów danych to ułamek globalnych emisji, wzrost AI może je istotnie podbić. Ale tu pojawia się paradoks: AI może także pomóc w optymalizacji sieci energetycznych, zarządzaniu infrastrukturą czy projektowaniu systemów niskoemisyjnych.
  3. Ryzyko przeciążenia sieci i blackoutów – jeśli zużycie energii przez centra AI wzrośnie szybciej niż infrastruktura sieciowa, pojawia się realne ryzyko przeciążeń, awarii lub lokalnych przerw w dostawie prądu.
  4. Przejrzystość i audytowalność – firmy technologiczne niechętnie publikują dane dotyczące zużycia AI, co utrudnia ocenę wpływu na klimaty i ryzyko systemowe.

Żeby nie było potwornie przejmująco, na odwrocie tego jednego wielkiego rachunku, jaki wystawia się nam za prąd, wypiszmy chociaż garść rzeczy, które można zrobić, aby nie zbankrutować. Przynajmniej – nie aż tak szybko.

  1. Projektowanie centrów danych „świadomych energii” – badania w obszarze zarządzania centrami danych (Energy-Aware Data Center Management) pokazują, że można dynamicznie alokować obciążenia, korzystać z lokalnych zasobów odnawialnych i optymalizować zużycie w czasie rzeczywistym.
  2. Kolokacja z OZE i hybrydowe systemy zarządzania – rozwiązania typu RCDC (renewable-colocated data centers) łączą produkcję energii ze źródeł odnawialnych i inteligentne zarządzanie obciążeniem, co obniża koszty i ślad węglowy.
  3. Monitoring energii na poziomie zadania – nowe metryki — energia przypadająca na pojedyncze zapytanie AI, efektywność energetyczna modelu — to klucz do transparentności i optymalizacji.
  4. Regulacje, standardy i polityka – potrzebne są standardy raportowania zużycia AI, zobowiązania firm do audytów energetycznych, zachęty do zielonego zasilania.
  5. Architektury modeli lżejsze, modele specjalistyczne – zmniejszanie nadmiaru ciężkich modeli, wdrażanie modeli adaptacyjnych lub „przyciętych” (model pruning), quantization, offloading do edge – to już dziś praktyki optymalizacyjne.
  6. Wykorzystanie AI do optymalizacji sieci – najlepsza na sam koniec. Oto bowiem, o ironio, AI może pomóc samemu sektorowi energetycznemu: prognoza zużycia, rozkład obciążenia, zarządzanie mikrosieciami, dynamiczne sterowanie.