Samsung dostarczy pamięci HBM4 dla AMD MI450 w ramach umowy z OpenAI

itreseller.com.pl 2 tygodni temu

Wielki przetasowanie w świecie półprzewodników. AMD i OpenAI podpisały wieloletnią umowę na dostawy akceleratorów AI, a kluczowym dostawcą pamięci HBM4 dla nowych układów MI450 ma zostać Samsung Electronics. To wydarzenie może diametralnie zmienić globalny układ sił na rynku sztucznej inteligencji, dotąd zdominowany przez NVIDIĘ i SK hynix.

Samsung wchodzi do gry z HBM4

Według doniesień serwisów SeDaily, Commercial Times i Reuters, południowokoreański gigant Samsung Electronics został wybrany przez AMD jako główny dostawca pamięci HBM4 dla nowej generacji akceleratorów Instinct MI450. Układy te mają napędzać infrastrukturę OpenAI w ramach porozumienia, które obejmuje dostawy o mocy obliczeniowej sięgającej 6 GW. Pierwsza faza, 1 GW, ma ruszyć w drugiej połowie 2026 roku.

To nie pierwszy raz, gdy AMD i Samsung współpracują przy projektach z segmentu AI. Wcześniejsze generacje układów, MI350X i MI355X, wykorzystywały 12-warstwowe pamięci HBM3e pochodzące od Samsunga i Microna, produkowane w litografii TSMC N3P. Jednak nowa generacja MI450 wprowadza kolejny etap – HBM4 – który ma oferować wyższą przepustowość i niższe zużycie energii, najważniejsze dla trenowania dużych modeli językowych.

Według analityka Ming-Chi Kuo z TF International Securities, Samsung przejmuje strategiczną pozycję jako główny dostawca HBM4 dla AMD, co stawia go w bezpośredniej konkurencji z SK hynix, dotychczasowym liderem rynku HBM, silnie związanym z NVIDIĄ.

AMD–Samsung kontra NVIDIA–SK hynix

Źródła branżowe cytowane przez SeDaily przewidują, iż relacje między producentami pamięci wejdą w okres intensywnej rywalizacji technologicznej i cenowej. SK hynix, który zdominował rynek HBM3 i HBM3e dzięki współpracy z NVIDIĄ, będzie musiał stawić czoła rosnącemu wpływowi Samsunga w segmencie AI.

Jednocześnie AMD, wraz z partnerami takimi jak Google i Microsoft, rozwija otwarty standard komunikacji GPU, Ultra Accelerate Link (UALink). Projekt ma stanowić alternatywę dla zamkniętego ekosystemu NVLink NVIDII. Dołączenie OpenAI do tego obozu może znacząco wzmocnić pozycję UALink na rynku i przyspieszyć powstawanie bardziej otwartych architektur dla centrów danych AI.

OpenAI zwiększa skalę zakupów pamięci i nośników

Jeszcze przed podpisaniem porozumienia z AMD, OpenAI prowadziło rozmowy z Samsungiem i SK hynix w sprawie zabezpieczenia dostaw pamięci dla swojego gigantycznego projektu centrum danych Stargate. Według informacji Tom’s Hardware i Reutersa, zapotrzebowanie OpenAI może sięgnąć choćby 900 000 wafli DRAM miesięcznie, co stanowiłoby około 40% światowej produkcji DRAM.

Jak informuje Maeil Business Newspaper, Samsung dostarczy nie tylko pamięci HBM, ale także GDDR, wysokopojemnościowe dyski SSD oraz energooszczędne moduły LPDDR5X-PIM z wbudowanymi funkcjami obliczeniowymi. Te rozwiązania będą najważniejsze dla wydajności i efektywności energetycznej centrów danych obsługujących kolejne generacje modeli ChatGPT.

Idź do oryginalnego materiału