Platforma NVIDIA MGX oferuje elastyczną architekturę, która umożliwia firmie MSI dostarczanie specjalnie zaprojektowanych rozwiązań zoptymalizowanych pod kątem sztucznej inteligencji, HPC i LLM. Wykorzystując tę platformę, rozwiązania serwerowe AI firmy MSI zapewniają wyjątkową skalowalność, wydajność i zwiększoną gęstość procesora graficznego – najważniejsze czynniki pozwalające sprostać rosnącym wymaganiom obliczeniowym obciążeń AI. Wykorzystując wiedzę inżynieryjną MSI i zaawansowane technologie AI firmy NVIDIA, te serwery AI oparte na architekturze MGX zapewniają niezrównaną moc obliczeniową, pozycjonując centra danych tak, aby maksymalizować wydajność i efektywność energetyczną, torując jednocześnie drogę dla przyszłości infrastruktury opartej na sztucznej inteligencji.
Według Danny’ego Hsu, dyrektora generalnego MSI Enterprise Platform Solutions, „Jesteśmy podekscytowani możliwością przedstawienia naszych serwerów AI opartych na technologii NVIDIA MGX, zaprojektowanych z myślą o maksymalnej skalowalności i wydajności. Ta kooperacja wzmacnia pozycję MSI na rynkach sztucznej inteligencji i HPC, pomagając klientom osiągnąć nowy poziom wydajności i optymalizacji zasilania w swoich centrach danych, szczególnie w przypadku wymagających obciążeń LLM i AI.”
MSI w dalszym ciągu napędza innowacje w dziedzinie sztucznej inteligencji i HPC, wprowadzając na rynek dwa nowe serwery AI oparte na technologii NVIDIA MGX: CG480-S5063 i CG290-S8023. Serwer CG480-S5063 4Userver z NVIDIA MGX, wyposażony w dwa procesory Intel Xeon 6, 8 gniazd GPU FHFL o podwójnej szerokości i 32 gniazda DDR5 DIMM, oferuje ogromną przepustowość pamięci i moc obliczeniową, zapewniając skalowalność dla obciążeń AI, LLM i analizy danych. Serwer AI CG290-S8023 2U, zasilany platformą NVIDIA GB200 NVL2, łączący 2 procesory NVIDIA Grace i 2 procesory graficzne NVIDIA Blackwell z 1344 GB pamięci wbudowanej, zapewnia wyjątkową wydajność na potrzeby wnioskowania i uczenia AI, przetwarzania LLM i optymalizacji przepustowości danych minimalizując jednocześnie opóźnienia w przypadku wydajnych aplikacji AI o dużej gęstości, zapewniając przyszłościową infrastrukturę AI dla centrów danych.