NVIDIA wnosi wkład w projekt platformy Blackwell w ekosystem otwartego sprzętu, przyspieszając innowacje w infrastrukturze AI

cyberfeed.pl 1 miesiąc temu


Aby stymulować rozwój otwartych, wydajnych i skalowalnych technologii centrów danych, firma NVIDIA ogłosiła dzisiaj, iż wniosła podstawowe elementy projektu platformy obliczeniowej akcelerowanej NVIDIA Blackwell do projektu Open Compute Project (OCP) i rozszerzyła obsługę NVIDIA Spectrum-X dla standardów OCP.

Podczas tegorocznego światowego szczytu OCP firma NVIDIA udostępni społeczności OCP najważniejsze elementy projektu elektromechanicznego systemu NVIDIA GB200 NVL72 — w tym architekturę stojaka, mechanikę modułów obliczeniowych i przełączników, specyfikacje dotyczące chłodzenia cieczą i środowiska termicznego oraz technologię NVIDIA NVLink objętość wkładu kablowego — w celu obsługi większej gęstości obliczeniowej i przepustowości sieci.

Firma NVIDIA wniosła już kilka oficjalnych wkładów w OCP obejmujących wiele generacji sprzętu, w tym specyfikację projektu płyty bazowej NVIDIA HGX H100, aby pomóc zapewnić ekosystemowi szerszy wybór ofert od światowych producentów komputerów i rozszerzyć zastosowanie sztucznej inteligencji.

Ponadto rozszerzone dostosowanie platformy sieciowej NVIDIA Spectrum-X Ethernet do specyfikacji opracowanych przez społeczność OCP umożliwia firmom uwolnienie potencjału wydajnościowego fabryk sztucznej inteligencji wdrażających sprzęt zgodny ze standardem OCP, przy jednoczesnym zachowaniu inwestycji i spójności oprogramowania.

„Opierając się na dziesięcioletniej współpracy z OCP, NVIDIA współpracuje z liderami branży w celu opracowania specyfikacji i projektów, które można powszechnie zastosować w całym centrum danych” – powiedział Jensen Huang, założyciel i dyrektor generalny NVIDIA. „Poprzez rozwijanie otwartych standardów pomagamy organizacjom na całym świecie wykorzystać pełny potencjał przyspieszonego przetwarzania danych i stworzyć fabryki przyszłości AI”.

Platforma przyspieszonego przetwarzania danych na potrzeby następnej rewolucji przemysłowej
Platforma przyspieszonego przetwarzania firmy NVIDIA została zaprojektowana z myślą o zasileniu nowej ery sztucznej inteligencji.

GB200 NVL72 opiera się na modułowej architekturze NVIDIA MGX, która umożliwia producentom komputerów szybkie i ekonomiczne budowanie szerokiej gamy projektów infrastruktury centrów danych.

System chłodzony cieczą łączy 36 procesorów NVIDIA Grace i 72 procesory graficzne NVIDIA Blackwell w obudowie przeznaczonej do montażu w stojaku. Dzięki domenie NVIDIA NVLink z 72 procesorami graficznymi działa jak pojedynczy, masywny procesor graficzny i zapewnia 30 razy szybsze wnioskowanie w oparciu o modele wielojęzykowe w czasie rzeczywistym z bilionami parametrów niż procesor graficzny NVIDIA H100 Tensor Core.

Platforma sieciowa NVIDIA Spectrum-X Ethernet, która obejmuje teraz nową generację NVIDIA ConnectX-8 SuperNIC, obsługuje standardy interfejsu abstrakcji przełączania (SAI) firmy OCP i systemu do otwartej sieci w chmurze (SONiC). Dzięki temu klienci mogą korzystać z adaptacyjnego routingu Spectrum-X i kontroli zatorów w oparciu o telemetrię, aby przyspieszyć wydajność sieci Ethernet w skalowalnej infrastrukturze AI.

Karty ConnectX-8 SuperNIC oferują przyspieszoną łączność sieciową z szybkością do 800 Gb/s oraz programowalne silniki przetwarzania pakietów zoptymalizowane pod kątem obciążeń AI na masową skalę. Karty ConnectX-8 SuperNIC dla OCP 3.0 będą dostępne w przyszłym roku, umożliwiając organizacjom budowanie wysoce elastycznych sieci.

Infrastruktura krytyczna dla centrów danych
W miarę jak świat przechodzi od obliczeń ogólnego przeznaczenia do obliczeń przyspieszonych i opartych na sztucznej inteligencji, infrastruktura centrów danych staje się coraz bardziej złożona. Aby uprościć proces rozwoju, NVIDIA ściśle współpracuje z ponad 40 światowymi producentami elektroniki, którzy dostarczają najważniejsze komponenty do tworzenia fabryk sztucznej inteligencji.

Ponadto szeroka gama partnerów wprowadza innowacje i buduje w oparciu o platformę Blackwell, w tym Meta, która planuje wnieść do OCP swoją architekturę rackową Catalina AI opartą na GB200 NVL72. Zapewnia to producentom komputerów elastyczne opcje budowania systemów o dużej gęstości obliczeniowej i zaspokajania rosnących potrzeb centrów danych w zakresie wydajności i efektywności energetycznej.

„NVIDIA od lat wnosi znaczący wkład w otwarte standardy obliczeniowe, w tym w swoją platformę obliczeniową o wysokiej wydajności, która przez ostatnie dwa lata stanowiła podstawę naszego serwera Grand Teton” – powiedział Yee Jiun Song, wiceprezes ds. inżynierii w firmie Meta. „W miarę jak staramy się sprostać rosnącym wymaganiom obliczeniowym wielkoskalowej sztucznej inteligencji, najnowsze osiągnięcia firmy NVIDIA w projektowaniu szaf serwerowych i architekturze modułowej pomogą przyspieszyć rozwój i wdrażanie infrastruktury sztucznej inteligencji w całej branży”.

Dowiedz się więcej o wkładzie firmy NVIDIA w projekt Open Compute Project podczas światowego szczytu OCP 2024, który odbędzie się w San Jose Convention Center w dniach 15–17 października.



Source link

Idź do oryginalnego materiału