AMD planuje wejść na rynek akceleratorów AI nowej generacji z rozmachem. W 2026 roku firma ma wprowadzić dwa nowe systemy klasy rack-scale: Instinct MI450X IF64 oraz Instinct MI450X IF128 – informuje serwis SemiAnalysis. Oba rozwiązania zaprojektowano z myślą o zastosowaniach sztucznej inteligencji i stanowią odpowiedź na układy Nvidia GB200 oraz nadchodzący VR300 NVL144.
Obecnie AMD nie jest w stanie konkurować z systemami Nvidia GB200 NVL72 pod względem skalowalności, gdyż obecna seria MI300 pozwala na pracę maksymalnie ośmiu procesorów graficznych w jednym środowisku. Jednak nowa generacja, a szczególnie 128-procesorowy system MI450X IF128, może znacząco zmienić tę sytuację.
Instinct MI450X IF128 będzie pierwszym rozwiązaniem AMD zdolnym do pracy z naprawdę wieloma akceleratorami AI rozłożonymi na dwa pełne racki, połączonymi dzięki rozszerzonego przez Ethernet interfejsu Infinity Fabric. Architektura systemu oparta będzie na 16 serwerach 1U, każdy z jednym procesorem AMD EPYC „Venice” oraz czterema GPU MI450X z własnymi modułami pamięci LPDDR i dyskami SSD PCIe x4. Każde GPU będzie dysponować przepustowością ponad 1,8 TB/s dla komunikacji wewnętrznej między procesorami graficznymi, co umożliwi budowę znacznie większych klastrów obliczeniowych niż dotychczas.
Poza lokalną grupą GPU, system wyposażono w choćby trzy karty sieciowe 800GbE Pensando na każde GPU. Oznacza to sumaryczną przepustowość do 2,4 Tb/s dla wszystkich układu, choć w alternatywnej konfiguracji, z dwiema kartami 800GbE, PCIe 5.0 nie pozwoli na pełne wykorzystanie dostępnego pasma. W odróżnieniu od rozwiązań Nvidii, które korzystają z aktywnych światłowodów z wbudowanymi komponentami do łączenia szaf, AMD stawia na prostsze okablowanie miedziane. Taka strategia może znacząco obniżyć koszty systemu i zużycie energii, choć niesie ze sobą ryzyko ograniczeń wynikających z jakości sygnału lub długości kabli.
Choć techniczna złożoność MI450X IF128 może utrudnić jego debiut rynkowy, AMD może w ten sposób poważnie zagrozić dominacji Nvidii w segmencie akceleratorów AI, szczególnie w zastosowaniach hyperscale i HPC.