Zasilanie centrów danych to dziś jedno z kluczowych wyzwań stojących przed globalną energetyką. Zagadnienie to zbadano w raporcie Bloom Energy.
W ciągu najbliższych kilku lat centra danych na całym świecie przejdą radykalną transformację energetyczną, napędzaną przez rosnące potrzeby związane ze sztuczną inteligencją. Według najnowszego raportu Bloom Energy, do 2030 roku aż 27% centrów danych będzie w pełni zasilanych energią generowaną lokalnie – to ogromny wzrost w porównaniu z zaledwie 1% w 2024 roku.
Powodem tego gwałtownego zwrotu są opóźnienia w podłączaniu nowych obiektów do sieci energetycznych oraz ogromne zapotrzebowanie na energię generowane przez obciążenia AI. Jak wskazują analizy, dostępność energii elektrycznej stała się dziś najważniejszym czynnikiem przy wyborze lokalizacji pod nowe centra danych – ważniejszym niż koszt gruntu czy bliskość użytkowników końcowych. Aż 84% liderów branży wskazuje dostęp do energii jako jeden z trzech kluczowych elementów decydujących o lokalizacji.
Problemy z dostępem do energii wynikają m.in. z rozdźwięku między oczekiwaniami deweloperów a możliwościami operatorów. O ile inwestorzy zakładają zwykle 12–18 miesięcy na uzyskanie dostępu do energii z sieci, to w praktyce w wielu regionach USA czas ten może się wydłużyć choćby o kolejne dwa lata. W obliczu rosnącej presji czasowej, operatorzy centrów danych coraz częściej decydują się na własne, niskoemisyjne źródła zasilania, które można wdrożyć szybciej i elastyczniej niż klasyczne przyłącza sieciowe.
Rosnące znaczenie zasilania lokalnego jest szczególnie istotne w kontekście dynamicznie zwiększającej się mocy centrów danych. W ciągu dekady mediana mocy obiektu ma wzrosnąć z obecnych 175 MW do około 375 MW. Wydajne systemy zasilania stają się więc nie tylko kwestią kosztów, ale wręcz warunkiem przetrwania projektów związanych z AI.
Raport zwraca też uwagę na fakt, iż operatorzy centrów danych nie porzucają celów klimatycznych – aż 95% liderów branży przez cały czas deklaruje przywiązanie do strategii redukcji emisji dwutlenku węgla. Jednak presja na zapewnienie szybkiego i stabilnego zasilania sprawia, iż realizacja tych celów może zostać tymczasowo odłożona na dalszy plan.
Sztuczna inteligencja to potężne narzędzie wymagające równie potężnej infrastruktury. Współczesne centra danych, obsługujące modele takie jak GPT-4 czy Gemini, muszą sprostać ogromnemu zapotrzebowaniu na moc obliczeniową. Tysiące specjalistycznych procesorów graficznych (GPU) i tensorowych (TPU), koniecznych do trenowania i uruchamiania modeli generatywnych, zużywają znacznie więcej energii niż tradycyjne systemy. To właśnie te potrzeby sprawiają, iż energetyczna niezależność staje się nowym standardem w świecie AI.