Samsung opracowuje pierwszą w branży pamięć DRAM HBM3E 12H o pojemności 36 GB

cyberfeed.pl 2 miesięcy temu


Firma Samsung Electronics, światowy lider w dziedzinie zaawansowanych technologii pamięci, ogłosiła dzisiaj, iż opracowała pamięć HBM3E 12H, pierwszą w branży 12-stosową pamięć DRAM HBM3E i zarazem produkt HBM o największej pojemności. Samsung HBM3E 12H zapewnia niezmiennie wysoką przepustowość do 1280 gigabajtów na sekundę (GB/s) i wiodącą w branży pojemność 36 gigabajtów (GB). W porównaniu do 8-stosowego HBM3 8H oba aspekty uległy poprawie o ponad 50%.

„Dostawcy usług AI w branży coraz częściej wymagają HBM o większej pojemności, a nasz nowy produkt HBM3E 12H został zaprojektowany, aby odpowiedzieć na tę potrzebę” – powiedział Yongcheol Bae, wiceprezes wykonawczy ds. planowania produktów pamięci w Samsung Electronics. „To nowe rozwiązanie pamięci stanowi część naszego dążenia do opracowania podstawowych technologii dla HBM o wysokim stosie i zapewnienia wiodącej pozycji technologicznej na rynku HBM o dużej pojemności w erze sztucznej inteligencji”.

W HBM3E 12H zastosowano zaawansowaną, nieprzewodzącą folię kompresyjną (TC NCF), dzięki czemu produkty 12-warstwowe mają tę samą specyfikację wysokości co produkty 8-warstwowe, aby spełnić aktualne wymagania opakowań HBM. Oczekuje się, iż technologia ta przyniesie dodatkowe korzyści, zwłaszcza w przypadku większych stosów, ponieważ branża stara się zapobiegać wypaczaniu się matrycy wiórowej w przypadku cieńszej matrycy. Firma Samsung w dalszym ciągu zmniejszała grubość materiału NCF i osiągnęła najmniejszą w branży szczelinę między chipami wynoszącą siedem mikrometrów (µm), eliminując jednocześnie puste przestrzenie między warstwami. Wysiłki te skutkują zwiększoną gęstością pionową o ponad 20% w porównaniu z produktem HBM3 8H.

Zaawansowana technologia TC NCF firmy Samsung poprawia również adekwatności termiczne HBM, umożliwiając zastosowanie nierówności o różnej wielkości pomiędzy chipami. Podczas procesu łączenia chipów mniejsze wybrzuszenia są stosowane w obszarach sygnalizacyjnych, a większe w miejscach wymagających odprowadzania ciepła. Ta metoda pomaga również w uzyskaniu wyższej wydajności produktu.

Ponieważ aplikacje AI rozwijają się wykładniczo, oczekuje się, iż HBM3E 12H będzie optymalnym rozwiązaniem dla przyszłych systemów wymagających większej ilości pamięci. Jego wyższa wydajność i pojemność pozwolą klientom bardziej elastycznie zarządzać zasobami i obniżyć całkowity koszt posiadania (TCO) centrów danych. Szacuje się, iż w przypadku zastosowania w aplikacjach AI, w porównaniu z przyjęciem HBM3 8H, średnia prędkość szkolenia AI może wzrosnąć o 34%, a liczba jednoczesnych użytkowników usług wnioskowania może wzrosnąć ponad 11,5 razy.

Samsung rozpoczął udostępnianie klientom próbek modelu HBM3E 12H, a masowa produkcja planowana jest na pierwszą połowę tego roku.



Source link

Idź do oryginalnego materiału