Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Maciej Lewczuk | 19-03-2025 18:30 |

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AIMicron ogłasza współpracę z NVIDIA, dostarczając pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. HBM3E 12H 36GB została zoptymalizowana pod kątem NVIDIA GB300 Grace Blackwell, a HBM3E 8H 24GB będzie wspierać HGX B200 i GB200 NVL72. Dzięki 1,2 TB/s przepustowości nowe moduły zapewnią wyższą wydajność AI i HPC. Micron zapowiedział także LPDDR5X SOCAMM, nowy format pamięci serwerowej dla rozwiązań AI i edge computing.

Micron ogłasza współpracę z NVIDIA, dostarczając przełomowe pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. Nowe technologie zwiększą wydajność AI.

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI [1]

Micron zaprezentował proces technologiczny 1γ. Rozwiązanie jest już wykorzystywane do produkcji pamięci DDR5

Micron Technology oficjalnie zapowiedział wprowadzenie na rynek nowych rozwiązań pamięci dla centrów danych i sztucznej inteligencji, które powstaną we współpracy z NVIDIA. Firma ogłosiła, że jako pierwsza dostarcza zarówno pamięci HBM3E, jak i SOCAMM (small outline compression attached memory module), wspierając nową generację serwerów AI, w tym platformy NVIDIA HGX B200, B300 NVL16 i GB200 NVL72. HBM3E 12H 36GB firmy Micron została zaprojektowana specjalnie dla układów NVIDIA GB300 Grace Blackwell Ultra Superchip, a wersja HBM3E 8H 24GB znajdzie zastosowanie w platformach HGX B200 i GB200 NVL72. Dzięki zastosowaniu tych modułów, systemy AI będą mogły osiągać jeszcze wyższą przepustowość oraz efektywność energetyczną. Pamięć HBM3E 12-warstwowa zapewnia imponującą przepustowość przekraczającą 1,2 TB/s. Jest to znaczne ulepszenie w porównaniu do wcześniejszych generacji.

Micron zaprezentował także nowy format LPDDR5X SOCAMM, który wprowadza mniejszy rozmiar, większą efektywność energetyczną i wyższą przepustowość w porównaniu do tradycyjnych modułów pamięci serwerowej. Technologia ta została zoptymalizowana pod kątem serwerów AI, systemów brzegowych (edge computing) i zintegrowanych rozwiązań chmurowych, zapewniając lepszą elastyczność wdrożeń oraz niższe opóźnienia w obliczeniach AI. Według przedstawicieli Micron, wprowadzenie nowych pamięci w połączeniu z architekturą NVIDIA Grace Blackwell otworzy nowe możliwości dla sektora AI i HPC (High-Performance Computing). 

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI [2]

Micron 4600 - zaprezentowano nowy dysk SSD korzystający ze złącza PCIe 5.0. Jego grupą docelową są profesjonaliści i gracze

Dzięki wysokiej gęstości i zoptymalizowanej wydajności energetycznej, te moduły pamięci będą kluczowym elementem w przyszłych platformach do treningu i wdrażania dużych modeli językowych (LLM) oraz symulacji fizycznych wymagających dużej mocy obliczeniowej. Partnerstwo Micron i NVIDIA to kolejny krok w kierunku poprawy wydajności systemów AI oraz rozwiązań dla centrów danych. Producent potwierdził, że jego nowe pamięci będą dostępne dla klientów już w 2025 roku i mają szansę stać się standardem w branży.

Źródło: Micron
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 5

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.