Satya Nadella przyznał, iż Microsoft posiada w magazynach tysiące układów GPU, których nie może uruchomić z powodu niedoboru mocy elektrycznej. Problem ten, jak zaznaczył, staje się dziś większym wyzwaniem niż jakiekolwiek braki sprzętowe i może spowolnić globalny wyścig o dominację w dziedzinie sztucznej inteligencji.
Microsoft ma chipy, ale nie ma gdzie ich „wpiąć” do gniazdka
Podczas rozmowy w podcaście Bg2 Pod prowadzonym przez inwestora Brada Gerstnera, dyrektor generalny Microsoftu Satya Nadella oraz szef OpenAI Sam Altman omówili wyzwania związane z rozwojem infrastruktury AI. Odpowiadając na pytanie o przewidywany nadmiar mocy obliczeniowej, Nadella stwierdził, iż problemem branży nie jest nadpodaż chipów, ale brak energii i gotowych budynków centrów danych.
„Największym wyzwaniem nie jest dziś brak chipów, ale brak mocy. jeżeli nie możesz dostarczyć zasilania wystarczająco szybko, może się okazać, iż masz stosy procesorów, których nie da się podłączyć. I to jest mój obecny problem. Nie mam ‘skorup’, do których mógłbym je włożyć” – powiedział Nadella.
Termin „skorupa” odnosi się do budynków centrów danych w stanie surowym, gotowych konstrukcyjnie, z infrastrukturą zasilania i chłodzenia, ale jeszcze bez zamontowanego sprzętu. Microsoft od miesięcy rozbudowuje swoje zasoby obliczeniowe, jednak tempo przyłączania nowych mocy do sieci energetycznej jest niższe niż tempo dostaw GPU.
AI zużywa więcej energii niż przewidywano
Eksperci od miesięcy ostrzegają, iż rozbudowa centrów danych AI prowadzi do gwałtownego wzrostu zużycia prądu. Według szacunków Bloomberga i IEA, tylko generatywne systemy AI mogą do 2030 r. pochłaniać choćby 10% globalnej produkcji energii elektrycznej, czyli tyle, ile dziś zużywają całe Niemcy.
W USA coraz więcej firm, od Microsoftu po Amazon i Google, inwestuje w małe reaktory jądrowe (SMR) oraz długoterminowe kontrakty z elektrowniami wodnymi i farmami wiatrowymi. OpenAI już w tym roku wezwało rząd federalny do uruchomienia programów zwiększających krajową produkcję energii o 100 gigawatów rocznie, określając ją jako strategiczny zasób w rywalizacji technologicznej ze światem, zwłaszcza z Chinami.
Pekin rzeczywiście ma dziś przewagę: według danych China Electricity Council z 2025 r., ponad 50% energii wykorzystywanej przez tamtejsze centra danych pochodzi z hydroelektrowni i elektrowni jądrowych, co czyni chiński sektor AI bardziej odpornym na wahania cen energii i ograniczenia infrastrukturalne.
Wąskie gardło infrastruktury
Słowa Nadelli są potwierdzeniem rosnącej rozbieżności między tempem rozwoju technologii a fizycznymi ograniczeniami infrastruktury. Wydajność GPU rośnie wykładniczo, ale sieci energetyczne, systemy chłodzenia i liczba dostępnych budynków nie nadążają za tym przyspieszeniem.
To właśnie to „wąskie gardło”, nie brak chipów, a brak energii, może w najbliższych latach decydować o tempie rozwoju globalnej sztucznej inteligencji. Paradoksalnie, w momencie największej w historii podaży mocy obliczeniowej, branża AI może utknąć w mroku… z powodu braku prądu.









