Dziś w trakcie swojej konferencji Advancing AI 2025 firma AMD nakreśliła wizję kompletnej i zintegrowanej sztucznej inteligencji oraz zaproponowała swoją otwartą, skalowalną infrastrukturę AI skonstruowaną w oparciu o standardy branżowe. Poniżej wnioski w największym skrócie:
-
AMD pomyślnie realizuje plany rozwoju akceleratorów AI wprowadzając nowe układy AMD Instinct MI350.
-
AMD kładzie szczególny nacisk na otwarte standardy przedstawiając komplementarną infrastrukturę AI, która jest już wdrażana przez tzw. hiperskalerów. Ponadto zaprezentowano nową wersję otwartego środowiska programistycznego ROCm 7 oraz program AMD Developer Cloud Access, który w znacznym stopniu ułatwi tworzenie projektów AI.
-
AMD jest na stabilnej i ambitnej ścieżce rozwoju, ponieważ omówiło też platformę AI przyszłości – AMD Helios. To w pełni zintegrowany system rackowy, który bazuje na następnej generacji produktach AMD, i który stworzy nowy paradygmat dla rozwoju sztucznej inteligencji, gdy stanie się dostępny w 2026 roku.
-
AMD istotną wagę przykłada też do efektywności prezentując dokonania w dziedzinie poprawy efektywności energetycznej swoich systemów AI oraz prezentując dalsze odważne cele.
Obecnie 7 na 10 największych instytucji tworzących modele AI pracuje z wykorzystaniem akceleratorów AMD Instinct. Wśród nich są Meta, OpenAI, Microsoft, xAI, których przedstawiciele pojawili się także na konferencji Advancing AI 2025, aby opowiedzieć o tym, jak wygląda kooperacja z AMD przy tworzeniu rozwiązań, trenowaniu wiodących modeli oraz rozwijaniu całego ekosystemu AI. Wśród pozostałych partnerów uczestniczących w wydarzeniu były m.in. Oracle, HUMAIN, Red Hat, Marvell i inni.
Najważniejsze nowości z Advancing AI 2025:
-
Nowe akceleratory AMD Instinct MI350X i MI355X, które zapewniają 4-krotnie wyższą wydajność obliczeniową w porównaniu do poprzedniej generacji i aż 35-krotnie wyższą we wnioskowaniu, co pozwoli tworzyć przełomowe rozwiązania AI w wielu branżach. MI355X oferuje ponadto świetny stosunek wydajności do ceny, ponieważ jest w stanie wygenerować choćby 40% więcej tokenów w przeliczeniu na 1 USD w porównaniu do konkurencji. Więcej informacji na ten temat znajdą Państwo na blogu AMD.
-
Nowa komplementarna rackowa infrastruktura AI tworzona w oparciu o otwarte standardy, która jest już wdrażana przez takich klientów jak Oracle Cloud Infrastructure (OCI) z wykorzystaniem akceleratorów AMD Instinct z serii MI350, 5 generacji procesorów AMD EPYC i kontrolerów sieci AMD Pensando Pollara. Platforma ta powinna być szeroko dostępna już w drugiej połowie 2025 roku.
-
AMD Helios – platforma AI następnej generacji, która będzie wykorzystywać akceleratory AMD Instinct MI400, procesory AMD EPYC “Venice” z rdzeniami “Zen 6” oraz kontrolery AMD Pensando “Vulcano”. Polecamy uwadze szczegóły na ten temat przedstawione na blogu AMD.
-
Najnowsza wersja otwartego środowiska programistycznego AI – ROCm 7 została zaprojektowana z myślą o rosnącym zapotrzebowaniu na generatywną sztuczną inteligencję oraz zadania charakterystyczne dla superkomputerów (HPC). Wersja ta jednocześnie znacząco powiększa możliwości deweloperów na wielu polach, ponieważ oferuje lepsze wsparcie dla środowisk (framework) będących standardami branżowymi, większą kompatybilność sprzętową, a także nowe narzędzia, sterowniki, API oraz biblioteki do rozwijania i wdrażania AI. Serdecznie zachęcamy do zajrzenia na blog AMD, aby uzyskać dalsze informacje.
-
AMD Developer Cloud to udostępnione dla deweloperów i społeczności środowisko chmury stworzone zwłaszcza do szybkiego i efektywnego rozwijania rozwiązań AI. Dzięki niemu można będzie tworzyć i rozbudowywać projekty AI praktycznie bez ograniczeń. Na blogu AMD znajdą Państwo szczegóły tej inicjatywy.
Firma AMD ponadto poinformowała, iż dzięki akceleratorom AMD Instinct z serii MI350 udało się przebić założenia 5-letniego planu 30-krotnej poprawy efektywności energetycznej przy trenowaniu AI oraz zadaniach HPC, ponieważ osiągnięto aż 38-krotnie lepszy wskaźnik. Jednocześnie przedstawiono nowy cel na 2030 rok, który zakłada 20-krotną poprawę efektywności systemów rackowych względem 2024 roku. Dzięki temu typowy model AI, który w tej chwili wymaga wykorzystania aż 275 szaf będzie mógł być trenowany przez mniej niż jedną przy założeniu, iż będzie w pełni obciążona. Pozwoli to oszczędzić aż 95% energii.
foto, źródlo. AMD