AMD uważa, iż ​​procesory GPU EPYC i instynkt przyspieszy postęp AI

cyberfeed.pl 1 dzień temu


Jeśli szukasz innowacyjnego wykorzystania technologii AI, spójrz na chmurę. Raporty Gartnera„73% respondentów w Gartner CIO i Executive Survey z 2024 r. Zwiększyło fundusze na sztuczną inteligencję”. I IDC mówi iż AI: „Będzie miał skumulowany globalny wpływ ekonomiczny w wysokości 19,9 biliona dolarów do 2030 r.”. Ale użytkownicy końcowi nie uruchamiają większości tych obciążeń AI na własnym sprzęcie. Zamiast tego w dużej mierze polegają na dostawcach usług w chmurze i dużych firmach technologicznych, aby zapewnić infrastrukturę do wysiłków AI. Takie podejście ma sens, ponieważ większość organizacji jest już silnie zależna od chmury. Według O’Reilly ponad 90% firm korzysta z usług w chmurze publicznej. I nie poruszają tylko kilku obciążeń do chmury. Ten sam raport pokazuje 175% wzrost zainteresowania rodzimą w chmurze, co wskazuje, iż firmy mocno zobowiązują się do chmury.

W wyniku tego zapotrzebowania na infrastrukturę w celu zasilania inicjatyw AI, dostawcy usług w chmurze uważają, iż konieczne jest szybka skalowanie swoich centrów danych. IDC przewiduje: „Różno zapotrzebowanie na obciążenia AI doprowadzi do znacznego wzrostu zdolności centrum danych, zużycia energii i emisji dwutlenku węgla, z przewidywaną zdolnością centrów danych AI, która będzie miała złożona roczna stopa wzrostu (CAGR) od 40,5% do 2027 r.” Podczas gdy ten wzrost stwarza ogromne możliwości dla dostawców usług, wprowadza także pewne wyzwania. Zapewnienie siły obliczeniowej niezbędnej do wspierania inicjatyw AI na dużą skalę, niezawodnie i opłacalnie jest trudne. Wielu dostawców stwierdziło, iż wdrożenie procesorów AMD EPYC i GPU instynktu może pomóc im w pokonaniu tych wyzwań. Oto krótkie spojrzenie na trzech dostawców usług, którzy używają układów AMD do przyspieszenia postępów AI.

Elastyczna, opłacalna wydajność w Microsoft Azure

Microsoft oferuje obszerną linię Maszyny wirtualne Azure napędzane przez AMD (VMS) W ramach swojej oferty usług przetwarzania w chmurze. Dostarli specyfikacje tych usług, aby spełnić wiele różnych przypadków użycia, od ogólnego celu po intensywne i magazynowe do pamięci po wysokowydajne obliczenia i poufne obliczenia do AI.

Klienci Azure doceniają opłacalność tych maszyn wirtualnych. Na przykład Henrik Klemola, dyrektor, Cloud COE w Epicor: „Używamy wirtualnych maszyn Azure z procesorem AMD EPYC od dwóch lat, aby uruchomić szereg aplikacji krytycznych biznesowych w ramach portfela Epicor Solution. Byłem bardzo zadowolony z konsekwentnej wydajności i przekonującej ceny, które te maszyny wirtualne były w stanie dostarczyć. Usługi oparte na najnowszych procesorach AMD EPYC ”.

Te nowe innowacje obejmują akceleratory wspierające sztuczną inteligencję i inne intensywne obciążenia, takie jak analizy finansowe, projektowanie i aplikacje inżynieryjne. Microsoft wyjaśnia: „Tradycyjne maszyny wirtualne tylko dla procesorów często walczą o nadążanie za tymi aplikacjami, frustrując użytkowników i zmniejszając wydajność, ale do tej pory wdrażanie wirtualnych środowisk wirtualnych, było zbyt kosztowne”. Udostępniając najnowsze postępy AMD w chmurze, Microsoft zapewnia klientom potrzebne wydajność w cenie, na jaką mogą sobie pozwolić.

Skalowalny wzrost w infrastrukturze chmurowej Oracle
Kolejnym głównym dostawcą chmur używającym AMD do przekraczania granic tego, co możliwe w sztucznej inteligencji, jest Oracle. We wrześniu Oracle Cloud Infrastructure (OCI) Wybierz akceleratorów instynktów AMD Aby zasilić najnowszą instancję Supercluster OCI. Oracle wyjaśnia iż te instancje pozwalają klientom: „Uruchom najbardziej wymagające obciążenia sztucznej inteligencji szybciej, w tym generatywne sztuczna inteligencja, wizja komputerowa i analizy predykcyjne”. Umożliwiają rozmieszczenie masowych klastrów skalnych do szkolenia na dużą skalę modeli AI.

Ta skalowalność była bardzo atrakcyjny dla Uberaktóry zaczął migrować do OCI obliczeniowej z infrastrukturą AMD i OCI AI w 2023 r. ”„ W dalszym ciągu rozwijamy się i wchodzimy na nowe rynki, potrzebujemy elastyczności, aby wykorzystać szeroki zakres usług w chmurze, aby zapewnić, iż zapewniamy najlepszego możliwego klienta Doświadczenie ” – mówi Kamran Zargahi, starszy dyrektor ds. Strategii technologicznej i inżynierii chmurowej w Uber. „Współpraca z Oracle pozwoliła nam szybciej wprowadzać innowacje podczas zarządzania naszymi kosztami infrastruktury. W przypadku OCI nasze produkty mogą działać na najlepszej infrastrukturze, która jest zaprojektowana w celu obsługi środowisk wielu chmury i może skalować w celu wsparcia opłacalnego wzrostu”.

Głębokie uczenie się nowej generacji w Meta
Meta intensywnie inwestuje w centra danych w chmurze, aby obsługiwać usługi AI, które oferuje użytkownikom. Ponad trzy miliardy osób wchodzi w interakcje z meta usług, takimi jak Facebook, Instagram i WhatsApp każdego dnia. A Meta pracuje nad szybką integracją generatywnej sztucznej inteligencji z wszystkimi tymi aplikacjami. Aby osiągnąć ten cel, Meta zainwestowała mocno w technologię AMD. W rzeczywistości rozmieścił ponad 1,5 miliona procesorów AMD EPYC na swoich serwerach na całym świecie. GPU AMD Instinct były również częścią jego sukcesu. Kevin Salvadori, wiceprezes, infrastruktura i inżynieria w Meta, wyjaśnia: „Cały ruch meta na żywo był obsługiwany przy użyciu MI300X wyłącznie ze względu na dużą pojemność pamięci i przewagę TCO”.

Ponadto układy AMD odgrywają centralną rolę w otwartej wizji sprzętowej Meta. Meta notatki w Post na blogu: „Skalowanie sztucznej inteligencji przy tej prędkości wymaga otwartych rozwiązań sprzętowych. Opracowanie nowych architektur, tkanin sieciowych i projektów systemowych jest najbardziej wydajne i wpływowe, gdy możemy zbudować zasady otwartości. Inwestując w otwarty sprzęt, odblokowujemy pełny potencjał AI i potencjał AI i Prędkość ciągłych innowacji w tej dziedzinie. ”

Grand Teton, otwarta platforma AI nowej generacji Meta obsługuje platformę AMD Instynct MI300X. Umożliwia to Grand Teton prowadzenie modeli rekomendacji głębokiego uczenia się meta, zrozumienie treści i innych obciążeń związanych z pracą.

Rozszerz granice tego, co jest możliwe
Jeśli twój zespół jest zainteresowany przekraczaniem granic tego, co jest możliwe dzięki dzisiejszym innowacjom AI, wypróbuj Instancja chmurowa oparta na instynkcie AMD od jednego z dostawców chmury publicznej. Lub zbudować GPU AMD Instynct we własnej infrastrukturze. Zapewniają wyniki, niski całkowity koszt własności i łatwość przyjęcia Super Charge AI.



Source link

Idź do oryginalnego materiału