NVIDIA pozostaje dominującym dostawcą na globalnym rynku serwerów AI w 2024 r. W szczególności na rynku serwerów GPU AI NVIDIA ma przytłaczającą przewagę z prawie 90% udziałem w rynku jeżeli chodzi o serwery obsługujące AI. Na drugim miejscu plasuje się AMD z 8%.
Najnowsze raporty TrendForce pokazują, iż wprowadzenie na rynek platformy NVIDIA Blackwell, spodziewane w IV kwartale tego roku, ma znacząco zwiększyć adopcję rozwiązań chłodzenia cieczą.
Przewiduje się, iż udział chłodzenia cieczą w rynku wzrośnie z około 10% w 2024 r. do ponad 20% w 2025 r. Zmiana ta będzie spowodowana rosnącą globalną świadomością ESG i przyspieszonym wdrażaniem serwerów AI przez CSP, co z kolei doprowadzi do przejścia z chłodzenia powietrzem na systemy chłodzenia cieczą.
TrendForce zauważa, iż początkowe dostawy platformy Blackwell firmy NVIDIA są w tym roku ograniczone, ponieważ łańcuch dostaw przez cały czas kończy testy produktu i testy walidacyjne, w tym optymalizację szybkiej transmisji i konstrukcji chłodzenia. Duże zużycie energii przez nową platformę – zwłaszcza w przypadku rozwiązania GB200 full-rack – będzie wymagało bardziej wydajnego chłodzenia, co spowoduje wzrost liczby rozwiązań chłodzenia cieczą. Jednak obecne przyjęcie chłodzenia cieczą w istniejących ekosystemach serwerów pozostaje niewielkie, a ODM będą musieli przejść przez krzywą uczenia się, aby sprostać wyzwaniom, takim jak wycieki i niewystarczająca wydajność chłodzenia.
TrendForce prognozuje, iż w 2025 r. udział Blackwell w rynku procesorów graficznych klasy high-end może przekroczyć 80%, przyciągając producentów zasilaczy i dostawców rozwiązań chłodzących do wejścia na rynek chłodzenia cieczą AI, tworząc tym samym nowy krajobraz konkurencyjny w branży. Oczekuje się, iż tajwańscy dostawcy dostarczą szybkie rozłączniki do 1H24, ponieważ Google przewodzi wdrażaniu chłodzenia cieczą W ostatnich latach główni dostawcy usług komunikacyjnych, w tym Google, AWS i Microsoft, przyspieszyli wdrażanie serwerów AI, wykorzystując przede wszystkim procesory graficzne NVIDIA i specjalnie zaprojektowane układy ASIC.
TrendForce wskazuje, iż szafy GB200 NVL72 firmy NVIDIA o TDP wynoszącym około 140 kW będą wymagały rozwiązań chłodzenia cieczą w celu rozwiązania problemu rozpraszania ciepła, a technologia Liquid-to-Air (L2A) ma stać się głównym podejściem. Inne architektury serwerów Blackwell, takie jak HGX i MGX, mają mniejszą gęstość i przez cały czas będą polegać na rozwiązaniach chłodzenia powietrzem.
Ze wszystkich gigantów Google jest najbardziej proaktywny w przyjmowaniu rozwiązań chłodzenia cieczą wśród dostawców usług komunikacyjnych opracowujących własne układy ASIC AI, wykorzystując zarówno chłodzenie powietrzem, jak i cieczą do swoich układów TPU. BOYD i Cooler Master są głównymi dostawcami płyt chłodzących dla Google.
Tymczasem w Chinach Alibaba zdecydowanie rozszerza swoje centra danych chłodzone cieczą, podczas gdy inni chińscy dostawcy usług komunikacyjnych przez cały czas korzystają z rozwiązań chłodzenia powietrzem dla swoich układów ASIC AI.
TrendForce podkreśla, iż dostawcy usług komunikacyjnych określają kluczowych dostawców komponentów chłodzenia cieczą w szafach GB200 firmy NVIDIA. w tej chwili Asia Vital Components i Cooler Master są liderami w dostarczaniu płyt chłodzących, podczas gdy Cooler Master i Auras dostarczają kolektory, a Vertiv i Delta Electronics dostarczają jednostki dystrybucji chłodziwa. Komponenty szybkozłączek (QD) – krytyczne dla zapobiegania wyciekom – są dostarczane głównie przez międzynarodowe firmy, takie jak CPC, Parker Hannifin, Denfoss i Staubli. Jednak tajwańskie firmy, takie jak LOTES i Fositek, są w fazie walidacji i oczekuje się, iż do pierwszej połowy 2025 r. dołączą do listy dostawców QD, aby pomóc złagodzić obecny niedobór.