TrendForce: platforma NVIDIA Blackwell i aktualizacje układów ASIC zwiększą zastosowanie układów chłodzenia cieczą o przynajmniej 100% w 2025 roku

itreseller.com.pl 1 tydzień temu

NVIDIA pozostaje dominującym dostawcą na globalnym rynku serwerów AI w 2024 r. W szczególności na rynku serwerów GPU AI NVIDIA ma przytłaczającą przewagę z prawie 90% udziałem w rynku jeżeli chodzi o serwery obsługujące AI. Na drugim miejscu plasuje się AMD z 8%.

Najnowsze raporty TrendForce pokazują, iż wprowadzenie na rynek platformy NVIDIA Blackwell, spodziewane w IV kwartale tego roku, ma znacząco zwiększyć adopcję rozwiązań chłodzenia cieczą.

Przewiduje się, iż udział chłodzenia cieczą w rynku wzrośnie z około 10% w 2024 r. do ponad 20% w 2025 r. Zmiana ta będzie spowodowana rosnącą globalną świadomością ESG i przyspieszonym wdrażaniem serwerów AI przez CSP, co z kolei doprowadzi do przejścia z chłodzenia powietrzem na systemy chłodzenia cieczą.

TrendForce zauważa, iż ​​początkowe dostawy platformy Blackwell firmy NVIDIA są w tym roku ograniczone, ponieważ łańcuch dostaw przez cały czas kończy testy produktu i testy walidacyjne, w tym optymalizację szybkiej transmisji i konstrukcji chłodzenia. Duże zużycie energii przez nową platformę – zwłaszcza w przypadku rozwiązania GB200 full-rack – będzie wymagało bardziej wydajnego chłodzenia, co spowoduje wzrost liczby rozwiązań chłodzenia cieczą. Jednak obecne przyjęcie chłodzenia cieczą w istniejących ekosystemach serwerów pozostaje niewielkie, a ODM będą musieli przejść przez krzywą uczenia się, aby sprostać wyzwaniom, takim jak wycieki i niewystarczająca wydajność chłodzenia.

TrendForce prognozuje, iż w 2025 r. udział Blackwell w rynku procesorów graficznych klasy high-end może przekroczyć 80%, przyciągając producentów zasilaczy i dostawców rozwiązań chłodzących do wejścia na rynek chłodzenia cieczą AI, tworząc tym samym nowy krajobraz konkurencyjny w branży. Oczekuje się, iż tajwańscy dostawcy dostarczą szybkie rozłączniki do 1H24, ponieważ Google przewodzi wdrażaniu chłodzenia cieczą W ostatnich latach główni dostawcy usług komunikacyjnych, w tym Google, AWS i Microsoft, przyspieszyli wdrażanie serwerów AI, wykorzystując przede wszystkim procesory graficzne NVIDIA i specjalnie zaprojektowane układy ASIC.

TrendForce wskazuje, iż ​​szafy GB200 NVL72 firmy NVIDIA o TDP wynoszącym około 140 kW będą wymagały rozwiązań chłodzenia cieczą w celu rozwiązania problemu rozpraszania ciepła, a technologia Liquid-to-Air (L2A) ma stać się głównym podejściem. Inne architektury serwerów Blackwell, takie jak HGX i MGX, mają mniejszą gęstość i przez cały czas będą polegać na rozwiązaniach chłodzenia powietrzem.

Ze wszystkich gigantów Google jest najbardziej proaktywny w przyjmowaniu rozwiązań chłodzenia cieczą wśród dostawców usług komunikacyjnych opracowujących własne układy ASIC AI, wykorzystując zarówno chłodzenie powietrzem, jak i cieczą do swoich układów TPU. BOYD i Cooler Master są głównymi dostawcami płyt chłodzących dla Google.

Tymczasem w Chinach Alibaba zdecydowanie rozszerza swoje centra danych chłodzone cieczą, podczas gdy inni chińscy dostawcy usług komunikacyjnych przez cały czas korzystają z rozwiązań chłodzenia powietrzem dla swoich układów ASIC AI.

TrendForce podkreśla, iż ​​dostawcy usług komunikacyjnych określają kluczowych dostawców komponentów chłodzenia cieczą w szafach GB200 firmy NVIDIA. w tej chwili Asia Vital Components i Cooler Master są liderami w dostarczaniu płyt chłodzących, podczas gdy Cooler Master i Auras dostarczają kolektory, a Vertiv i Delta Electronics dostarczają jednostki dystrybucji chłodziwa. Komponenty szybkozłączek (QD) – krytyczne dla zapobiegania wyciekom – są dostarczane głównie przez międzynarodowe firmy, takie jak CPC, Parker Hannifin, Denfoss i Staubli. Jednak tajwańskie firmy, takie jak LOTES i Fositek, są w fazie walidacji i oczekuje się, iż do pierwszej połowy 2025 r. dołączą do listy dostawców QD, aby pomóc złagodzić obecny niedobór.

Idź do oryginalnego materiału