Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI
Micron ogłasza współpracę z NVIDIA, dostarczając pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. HBM3E 12H 36GB została zoptymalizowana pod kątem NVIDIA GB300 Grace Blackwell, a HBM3E 8H 24GB będzie wspierać HGX B200 i GB200 NVL72. Dzięki 1,2 TB/s przepustowości nowe moduły zapewnią wyższą wydajność AI i HPC. Micron zapowiedział także LPDDR5X SOCAMM, nowy format pamięci serwerowej dla rozwiązań AI i edge computing.
Micron ogłasza współpracę z NVIDIA, dostarczając przełomowe pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. Nowe technologie zwiększą wydajność AI.
Micron zaprezentował proces technologiczny 1γ. Rozwiązanie jest już wykorzystywane do produkcji pamięci DDR5
Micron Technology oficjalnie zapowiedział wprowadzenie na rynek nowych rozwiązań pamięci dla centrów danych i sztucznej inteligencji, które powstaną we współpracy z NVIDIA. Firma ogłosiła, że jako pierwsza dostarcza zarówno pamięci HBM3E, jak i SOCAMM (small outline compression attached memory module), wspierając nową generację serwerów AI, w tym platformy NVIDIA HGX B200, B300 NVL16 i GB200 NVL72. HBM3E 12H 36GB firmy Micron została zaprojektowana specjalnie dla układów NVIDIA GB300 Grace Blackwell Ultra Superchip, a wersja HBM3E 8H 24GB znajdzie zastosowanie w platformach HGX B200 i GB200 NVL72. Dzięki zastosowaniu tych modułów, systemy AI będą mogły osiągać jeszcze wyższą przepustowość oraz efektywność energetyczną. Pamięć HBM3E 12-warstwowa zapewnia imponującą przepustowość przekraczającą 1,2 TB/s. Jest to znaczne ulepszenie w porównaniu do wcześniejszych generacji.
Micron zaprezentował także nowy format LPDDR5X SOCAMM, który wprowadza mniejszy rozmiar, większą efektywność energetyczną i wyższą przepustowość w porównaniu do tradycyjnych modułów pamięci serwerowej. Technologia ta została zoptymalizowana pod kątem serwerów AI, systemów brzegowych (edge computing) i zintegrowanych rozwiązań chmurowych, zapewniając lepszą elastyczność wdrożeń oraz niższe opóźnienia w obliczeniach AI. Według przedstawicieli Micron, wprowadzenie nowych pamięci w połączeniu z architekturą NVIDIA Grace Blackwell otworzy nowe możliwości dla sektora AI i HPC (High-Performance Computing).
Micron 4600 - zaprezentowano nowy dysk SSD korzystający ze złącza PCIe 5.0. Jego grupą docelową są profesjonaliści i gracze
Dzięki wysokiej gęstości i zoptymalizowanej wydajności energetycznej, te moduły pamięci będą kluczowym elementem w przyszłych platformach do treningu i wdrażania dużych modeli językowych (LLM) oraz symulacji fizycznych wymagających dużej mocy obliczeniowej. Partnerstwo Micron i NVIDIA to kolejny krok w kierunku poprawy wydajności systemów AI oraz rozwiązań dla centrów danych. Producent potwierdził, że jego nowe pamięci będą dostępne dla klientów już w 2025 roku i mają szansę stać się standardem w branży.
Powiązane publikacje

V-Color ustanawia nowy rekord świata w podkręcaniu pamięci DDR5. Osiągnięto oszałamiającą prędkość transferów
16
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI
1
Micron zaprezentował proces technologiczny 1γ. Rozwiązanie jest już wykorzystywane do produkcji pamięci DDR5
24
Micron, Samsung i SK hynix przygotowują się do zakończenia produkcji pamięci DDR3 i DDR4 jeszcze w tym roku
23