Według doniesień klienci korzystający z procesorów graficznych NVIDIA AI sprzedają nadwyżkę sprzętu

cyberfeed.pl 2 miesięcy temu


Procesor graficzny NVIDIA H100 Tensor Core był w zeszłym roku najpopularniejszym produktem w segmentach branży HPC i sztucznej inteligencji — według raportów najwięksi nabywcy nabyli po 150 000 jednostek każdy. Popyt wzrósł tak bardzo, iż czas realizacji wynosił 36 do 52 tygodni stała się normą dla sprzętu serwerowego opartego na H100. Najnowsze doniesienia wskazują, iż sytuacja ustabilizowała się do tego stopnia, iż ​​niektóre organizacje „rozładunek chipsów” w miarę wygasania załamania podaży. Najwyraźniej bardziej opłacalne jest wynajmowanie usług przetwarzania AI od dostawców usług w chmurze (CSP) – do trzech największych należą Amazon Web Services, Google Cloud i Microsoft Azure.

Według połowy lutego Poszukiwany Alfa raport, czas oczekiwania na NVIDIA H100 80 GB modelu GPU zostały skrócone do około trzech do czterech miesięcy. Informacja uważa, iż ​​niektóre firmy już zmniejszyły liczbę zamówień, podczas gdy w innych sprzęt leży zupełnie nieużywany. Według doniesień złożoność i koszty konserwacji są głównymi czynnikami powodującymi „odciążanie” niepotrzebnego sprzętu i korzystanie z wynajmu czasu serwera od dostawców usług internetowych. Pomimo poprawy warunków podaży popyt na procesory graficzne AI wciąż rośnie – napędzany głównie przez organizacje zajmujące się modelami LLM. Najlepszym przykładem jest otwarta sztuczna inteligencja – jak zauważył The Information –wewnętrzne szepty sprawić, iż Sam Altman & Co. poszuka alternatywnych rozwiązań i możliwości produkcji.



Source link

Idź do oryginalnego materiału