Na SC24 firma NVIDIA ogłosiła swoje najnowsze akceleratory AI o dużej gęstości obliczeniowej w postaci GB200 NVL4, rozwiązania jednoserwerowego, które poszerza portfolio firmy z serii „Blackwell”. Nowa platforma oferuje imponującą kombinację czterech procesorów graficznych „Blackwell” i dwóch procesorów „Grace” na jednej płycie. GB200 NVL4 może poszczycić się niezwykłymi specyfikacjami jak na system z jednym serwerem, w tym 768 GB pamięci HBM3E na czterech procesorach graficznych Blackwell, co zapewnia łączną przepustowość pamięci wynoszącą 32 TB/s. Dwa procesory Grace w systemie mają 960 GB pamięci LPDDR5X, co czyni go potężnym narzędziem do wymagających obciążeń AI. Kluczową cechą projektu NVL4 jest technologia połączeń wzajemnych NVLink, która umożliwia komunikację pomiędzy wszystkimi procesorami na płycie. Integracja ta jest ważna dla utrzymania optymalnej wydajności wielu jednostek przetwarzających system, szczególnie podczas dużych przebiegów szkoleniowych lub wnioskowania z modelu o wielu bilionach parametrów.
Porównania wydajności z poprzednimi generacjami wykazują znaczną poprawę, a NVIDIA twierdzi, iż procesory graficzne GB200 zapewniają 2,2 razy większą ogólną wydajność i 1,8 razy szybsze możliwości treningowe w porównaniu do ich poprzednika GH200 NVL4. Pobór mocy systemu sięga 5400 watów, co skutecznie podwaja zapotrzebowanie na moc 2700 watów modelu GB200 NVL2, jego mniejszego rodzeństwa, wyposażonego w dwa procesory graficzne zamiast czterech. NVIDIA ściśle współpracuje z partnerami OEM, aby wprowadzić na rynek różne rozwiązania Blackwell, w tym DGX B200, GB200 Grace Blackwell Superchip, GB200 Grace Blackwell NVL2, GB200 Grace Blackwell NVL4 i GB200 Grace Blackwell NVL72. Zamontowanie 5400 W TDP w jednym serwerze będzie wymagało chłodzenia cieczą w celu uzyskania optymalnej wydajności, a GB200 NVL4 ma trafić do szaf serwerowych dla klientów korzystających z hiperskali, którzy zwykle mają w swoich centrach danych niestandardowe systemy chłodzenia cieczą.
Source link