Lenovo wraz z partnerami AKT II i Mamou-Mani zaprezentowało koncepcje przyszłych centrów danych, które mają sprostać rosnącym wymaganiom sztucznej inteligencji i zrównoważonego rozwoju. Badanie firmy ujawnia, iż niemal połowa europejskich organizacji nie jest gotowa na ekologiczne i wydajne przetwarzanie danych, a 99% liderów IT uważa suwerenność danych za kluczową dla przyszłości infrastruktury cyfrowej.
Centra danych pod presją: między AI a klimatem
Rosnące zapotrzebowanie na moc obliczeniową oraz presja na redukcję emisji CO₂ wymuszają gruntowne zmiany w projektowaniu centrów danych. Z badania Data Center of the Future, przeprowadzonego przez Lenovo i firmę Opinium wśród 250 decydentów IT z Europy i Bliskiego Wschodu, wynika, iż 46% organizacji przyznaje, iż ich obecna infrastruktura nie wspiera celów klimatycznych.
Aż 92% badanych stawia na partnerów technologicznych, którzy potrafią ograniczać zużycie energii i ślad węglowy, ale tradycyjne metody chłodzenia, zwłaszcza powietrzem, przestają wystarczać. W erze generatywnej AI i automatyzacji wyzwania te stają się jeszcze bardziej palące.
„Centrum danych przyszłości będzie definiowane przez to, jak skutecznie potrafi skalować się dla sztucznej inteligencji, osiągać cele zrównoważonego rozwoju i działać z maksymalną efektywnością energetyczną. Klienci oczekują dziś infrastruktury, która nie tylko dostarcza wydajność, ale także zmniejsza wpływ na środowisko.” – podkreśla Simone Larsson, dyrektor ds. Enterprise AI w regionie EMEA w Lenovo.
Suwerenność danych i niska latencja to filary nowych projektów
Z badania wynika również, iż aż 99% liderów IT w regionie EMEA uznaje suwerenność danych, czyli pełną kontrolę nad miejscem ich przechowywania i przetwarzania, za najważniejszy czynnik przy projektowaniu przyszłych centrów danych. To efekt coraz bardziej złożonych regulacji, od RODO po lokalne przepisy dotyczące rezydencji danych.
Jednocześnie 94% respondentów wskazuje niskie opóźnienia jako priorytet dla rozwoju infrastruktury w dobie edge computingu i aplikacji czasu rzeczywistego. W połączeniu z faktem, iż 90% firm spodziewa się gwałtownego wzrostu wolumenu danych generowanych przez AI, tworzy to potężną presję na modernizację zarówno architektury sprzętowej, jak i lokalizacji obiektów.

Lenovo i architekci przyszłości: Floating Cloud, Data Village i Data Bunker
Aby zobrazować, jak może wyglądać centrum danych roku 2055, Lenovo zaprosiło do współpracy londyńskie biuro inżynierskie AKT II oraz architektów z Mamou-Mani. Efektem są trzy wizje, które łączą wydajność, zrównoważony rozwój i kreatywne wykorzystanie przestrzeni.
Floating Cloud to koncepcja centrum danych unoszącego się w powietrzu na wysokości 20–30 km, zasilanego całodobowo energią słoneczną i chłodzonego cieczą w zamkniętym obiegu.
Data Village – modularny kompleks umieszczony w pobliżu zbiorników wodnych – umożliwia przekazywanie ciepła odpadowego do lokalnych szkół, domów czy basenów. Projekt przewiduje też wariant Data Spa, zintegrowany z krajobrazem geotermalnym, w którym infrastruktura serwerowa staje się częścią środowiska naturalnego.
Data Center Bunker wykorzystuje nieczynne tunele, bunkry i infrastrukturę podziemną. Takie rozwiązanie ogranicza wykorzystanie powierzchni ziemi, zwiększa bezpieczeństwo i pozwala na naturalne chłodzenie.
James Cheung z biura Mamou-Mani komentuje:
„Jako architekci i inżynierowie mamy obowiązek tworzyć centra danych lepsze, a nie tylko większe. Wspólnie z Lenovo pokazujemy, iż można odzyskiwać energię, integrować obiekty z krajobrazem i uczynić je częścią ekosystemu miejskiego.”
Chłodzenie cieczą jako konieczność, nie opcja
Wszystkie przedstawione koncepcje opierają się na technologii chłodzenia cieczą, która w porównaniu z systemami powietrznymi zużywa mniej energii i pozwala odprowadzić ciepło bezpośrednio z komponentów. Lenovo podkreśla, iż dzięki rozwiązaniu Neptune Liquid Cooling można usunąć do 98% ciepła bezpośrednio ze źródła, jednocześnie znacząco ograniczając pobór prądu.
To podejście ma najważniejsze znaczenie dla przyszłości przetwarzania danych, w której generatywna AI, symulacje przemysłowe i modele językowe wymagają tysięcy kilowatów mocy na każdy klaster serwerowy.
„Zrównoważone centrum danych zaczyna się od decyzji projektowych. Nie możemy dopisywać ekologii do infrastruktury po fakcie – musimy ją zaprojektować w DNA systemu.” – dodaje Larsson.









