NVIDIA przejmie dostawcę systemu do orkiestracji GPU Run:ai

itreseller.com.pl 1 tydzień temu

Aby pomóc klientom w bardziej efektywnym wykorzystaniu ich zasobów obliczeniowych AI, NVIDIA ogłosiła dziś zawarcie ostatecznej umowy nabycia Run:ai, dostawcy systemu do zarządzania i orkiestracji obciążeń opartych na Kubernetes.

Wdrożenia sztucznej inteligencji u klientów stają się coraz bardziej złożone, z obciążeniami rozproszonymi w chmurze, na brzegu sieci i w lokalnej infrastrukturze centrum danych. Zarządzanie i orkiestracja generatywnej sztucznej inteligencji, systemów rekomendacji, wyszukiwarek i innych obciążeń wymaga zaawansowanego harmonogramowania w celu optymalizacji wydajności na poziomie systemu i infrastruktury bazowej.

Run:ai umożliwia klientom korporacyjnym zarządzanie i optymalizację infrastruktury obliczeniowej, zarówno lokalnej, w chmurze, jak i w środowiskach hybrydowych. Firma zbudowała otwartą platformę opartą na Kubernetes. Obsługuje wszystkie popularne warianty Kubernetes i integruje się z narzędziami i frameworkami AI innych firm.

Wśród klientów Run:ai znajdują się jedne z największych na świecie przedsiębiorstw z różnych branż, które wykorzystują platformę Run:ai do zarządzania klastrami GPU w skali centrum danych.

“Run:ai ściśle współpracuje z firmą NVIDIA od 2020 roku i łączy nas pasja pomagania naszym klientom w jak najlepszym wykorzystaniu ich infrastruktury – powiedział Omri Geller, współzałożyciel i dyrektor generalny Run:ai. – “Cieszymy się, iż możemy dołączyć do firmy NVIDIA i nie możemy się doczekać kontynuowania naszej wspólnej podróży”.

Platforma Run:ai zapewnia programistom AI i ich zespołom:

  • Scentralizowany interfejs do zarządzania współdzieloną infrastrukturą obliczeniową, umożliwiający łatwiejszy i szybszy dostęp do złożonych obciążeń AI.
  • Funkcjonalność dodawania użytkowników, przydzielania ich do zespołów, zapewniania dostępu do zasobów klastra, kontroli nad kwotami, priorytetami i pulami oraz monitorowania i raportowania wykorzystania zasobów.
  • Możliwość łączenia układów GPU i udostępniania mocy obliczeniowej – od ułamków układów GPU do wielu układów GPU lub wielu węzłów układów GPU działających w różnych klastrach – dla oddzielnych zadań.
  • Efektywne wykorzystanie zasobów klastra GPU, pozwalające klientom uzyskać więcej korzyści z ich inwestycji obliczeniowych.

NVIDIA będzie przez cały czas oferować produkty Run:ai w ramach tego samego modelu biznesowego w najbliższej przyszłości. NVIDIA będzie przez cały czas inwestować w mapę drogową produktów Run:ai w ramach NVIDIA DGX Cloud, platformy AI opracowanej wspólnie z wiodącymi chmurami dla programistów korporacyjnych, oferującej zintegrowaną, kompleksową usługę zoptymalizowaną pod kątem generatywnej sztucznej inteligencji.

Klienci NVIDIA DGX i DGX Cloud uzyskają dostęp do możliwości Run:ai dla swoich obciążeń AI, w szczególności dla dużych wdrożeń modeli językowych. Rozwiązania Run:ai są już zintegrowane m.in. z oprogramowaniem NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontenerami NGC i oprogramowaniem NVIDIA AI Enterprise.

Platforma akceleracji obliczeń NVIDIA i platforma Run:ai będą przez cały czas wspierać szeroki ekosystem rozwiązań innych firm, zapewniając klientom wybór i elastyczność.

Wraz z Run:ai, NVIDIA umożliwi klientom posiadanie pojedynczej struktury, która zapewnia dostęp do rozwiązań GPU w dowolnym miejscu. Klienci mogą spodziewać się korzyści w postaci lepszego wykorzystania GPU, usprawnionego zarządzania infrastrukturą GPU i większej elastyczności dzięki otwartej architekturze.

Idź do oryginalnego materiału