Oczekuje się, iż globalny wzrost popytu na serwery AI zwiększy wartość rynku w 2024 r. do 187 mld USD; stanowi 65% rynku serwerów

cyberfeed.pl 2 miesięcy temu


Najnowszy raport branżowy TrendForce na temat serwerów AI ujawnia, iż ​​wysokie zapotrzebowanie na zaawansowane serwery AI ze strony głównych CSP i klientów marek ma się utrzymać w 2024 r. Tymczasem stopniowa ekspansja produkcji TSMC, SK hynix, Samsung i Micron znacznie złagodziła niedobory w 2Q24. W rezultacie czas realizacji flagowego rozwiązania H100 firmy NVIDIA skrócił się z poprzednich 40-50 tygodni do mniej niż 16 tygodni.

TrendForce szacuje, iż dostawy serwerów AI w drugim kwartale wzrosną o prawie 20% kwartał do kwartału i skorygował roczną prognozę dostaw do 1,67 miliona sztuk, co oznacza wzrost o 41,5% rok do roku.

TrendForce zauważa, iż ​​w tym roku główni dostawcy usług komunikacyjnych przez cały czas koncentrują swoje budżety na pozyskiwaniu serwerów AI, co wypiera dynamikę wzrostu serwerów ogólnych. W porównaniu z wysokim tempem wzrostu serwerów AI, roczna stopa wzrostu dostaw serwerów ogólnych wynosi zaledwie 1,9%. Oczekuje się, iż udział serwerów AI w całkowitej liczbie dostaw serwerów osiągnie 12,2%, co oznacza wzrost o około 3,4 punktu procentowego od 2023 r.

Pod względem wartości rynkowej serwery AI wnoszą znaczący wkład do wzrostu przychodów bardziej niż serwery ogólne. Przewiduje się, iż wartość rynkowa serwerów AI przekroczy 187 miliardów dolarów w 2024 r., przy tempie wzrostu wynoszącym 69%, co stanowi 65% całkowitej wartości rynku serwerów.

Północnoamerykańscy CSP (np. AWS, Meta) nieustannie rozszerzają swoje zastrzeżone układy ASIC, a chińskie firmy, takie jak Alibaba, Baidu i Huawei, aktywnie rozszerzają swoje własne rozwiązania ASIC AI. Oczekuje się, iż zwiększy to udział serwerów ASIC w całkowitym rynku serwerów AI do 26% w 2024 r., podczas gdy główne serwery AI wyposażone w GPU będą stanowić około 71%.

Jeśli chodzi o dostawców układów AI dla serwerów AI, NVIDIA ma największy udział w rynku — zbliżający się do 90% w przypadku serwerów AI wyposażonych w procesory graficzne — podczas gdy udział rynkowy AMD wynosi zaledwie około 8%. Jednakże, jeżeli uwzględnić wszystkie układy AI wykorzystywane w serwerach AI (GPU, ASIC, FPGA), udział rynkowy firmy NVIDIA w tym roku wynosi około 64%.

TrendForce zauważa, iż ​​popyt na zaawansowane serwery AI ma pozostać silny do 2025 r., zwłaszcza iż następna generacja Blackwell firmy NVIDIA (w tym GB200, B100/B200) ma zastąpić platformę Hopper jako główny nurt rynkowy. To również zwiększy popyt na CoWoS i HBM. W przypadku B100 firmy NVIDIA rozmiar chipa będzie dwukrotnie większy niż w przypadku H100, co spowoduje większe zużycie CoWoS. Szacuje się, iż zdolność produkcyjna CoWoS głównego dostawcy TSMC osiągnie 550–600 tys. jednostek do końca 2025 r., a tempo wzrostu zbliży się do 80%.

Mainstream H100 w 2024 r. będzie wyposażony w 80 GB HMB3. Do 2025 r. główne układy, takie jak Blackwell Ultra firmy NVIDIA lub MI350 firmy AMD, mają być wyposażone w do 288 GB HBM3e, co potroi wykorzystanie jednostki. Oczekuje się, iż całkowita podaż HBM podwoi się do 2025 r. ze względu na silny, trwający popyt na rynku serwerów AI.



Source link

Idź do oryginalnego materiału