Producenci serwerów zwiększają wysiłki w zakresie sztucznej inteligencji

cyberfeed.pl 1 dzień temu


Producenci serwerów od dawna dostrzegają niszę w publicznej chmurze obliczeniowej, którą serwery fizyczne z powodzeniem wypełniają. Z czasem ewoluowało to do świadomości liderów IT i branży, iż niektóre obciążenia zawsze będą wykonywane lokalnie; niektóre mogą działać zarówno w chmurze publicznej, jak i lokalnie, a niektóre mogą być całkowicie oparte na chmurze.

Wnioskowanie oparte na sztucznej inteligencji (AI) to obciążenie, które w tej chwili zyskuje na popularności wśród dostawców serwerów, którzy chcą rozwiać obawy związane z utratą danych, suwerennością danych i potencjalnymi problemami z opóźnieniami podczas przetwarzania danych AI z urządzeń brzegowych i Internetu rzeczy (IoT). .

Technologie Della rozszerzyła teraz swoją platformę systemu Dell NativeEdge do obsługi rozwiązań brzegowych, aby uprościć wdrażanie, skalowanie i korzystanie ze sztucznej inteligencji w organizacjach na urządzeniach brzegowych.

Platforma Dell oferuje to, co firma określa jako „wdrażanie urządzeń na dużą skalę”, zdalne zarządzanie i orkiestrację aplikacji w wielu chmurach. Według firmy Dell NativeEdge oferuje funkcje wysokiej dostępności umożliwiające utrzymanie krytycznych procesów biznesowych i obciążeń AI na brzegach, które mogą działać niezależnie od zakłóceń w sieci lub awarii urządzeń. Platforma oferuje także migrację maszyn wirtualnych oraz automatyczne przełączanie awaryjne aplikacji, obliczeń i pamięci masowej, co według firmy Dell zapewnia organizacjom większą niezawodność i ciągłość działania.

Jeden z jej klientów, Nature Fresh Farms, korzysta z platformy do zarządzania ponad 1000 obiektów obsługujących IoT. „Dell NativeEdge pomaga nam monitorować w czasie rzeczywistym elementy infrastruktury, zapewniając optymalne warunki dla naszych produktów i uzyskiwać kompleksowy wgląd w operacje pakowania naszych produktów” – powiedział Keith Bradley, wiceprezes ds. technologii informatycznych w Nature Fresh Farms.

Zbiegając się z konferencją KubeCon North America 2024, Nutanix ogłosił swoje wsparcie dla hybrydowa i wielochmurowa sztuczna inteligencja w oparciu o nową platformę Nutanix Enterprise AI (NAI). Można je wdrożyć na dowolnej platformie Kubernetes, na brzegu sieci, w kluczowych centrach danych i w publicznych usługach chmurowych.

Nutanix powiedział, iż NAI zapewnia spójny hybrydowy model operacyjny obejmujący wiele chmur dla przyspieszonych obciążeń AI, pomagając organizacjom w bezpiecznym wdrażaniu, uruchamianiu i skalowaniu punktów końcowych wnioskowania dla dużych modeli językowych (LLM) w celu wspierania wdrażania generatywnych aplikacji AI (GenAI) w ciągu kilku minut, a nie dni lub tygodnie.

Podobna historia jest w HPE. Podczas październikowego dnia AI dyrektor generalny HPE Antony Neri omówił, w jaki sposób niektórzy klienci korporacyjni muszą wdrożyć modele sztucznej inteligencji w małych językach.

„Zazwyczaj wybierają z półki duży model językowy, który odpowiada potrzebom i dostrajają te modele sztucznej inteligencji, korzystając z ich unikalnych, bardzo szczegółowych danych” – powiedział. „Widzimy, iż większość z nich dotyczyła lokalizacji lub lokalizacji, w których klienci kontrolują swoje dane, biorąc pod uwagę ich obawy dotyczące suwerenności danych i regulacji, wycieków danych oraz bezpieczeństwa interfejsów API chmury publicznej AI”.

We wrześniu HPE ogłosiło nawiązanie współpracy z firmą Nvidia, w wyniku której Neri opisuje jako „w pełni gotowy stos chmury prywatnej, który ułatwia przedsiębiorstwom każdej wielkości opracowywanie i wdrażanie generatywnych aplikacji AI”.

Powiedział, iż dzięki zaledwie trzech kliknięć i mniej niż 30 sekund na wdrożenie klient może wdrożyć sztuczną inteligencję HPE w chmurze prywatnej, która integruje akcelerowaną sieć obliczeniową Nvidia i oprogramowanie AI z serwerem AI, pamięcią masową i usługami w chmurze HPE.

Podczas październikowej imprezy Tech World firma Lenovo zaprezentowała rozwiązanie Hybrid AI Advantage we współpracy z Nvidią, które, jak twierdzi, łączy w sobie pełne możliwości sztucznej inteligencji zoptymalizowane pod kątem industrializacji i niezawodności.

Część pakietu zawierająca sztuczną inteligencję zawiera to, co Lenovo nazywa „biblioteką gotowych do dostosowania rozwiązań opartych na sztucznej inteligencji, które pomagają klientom przełamać bariery w zakresie zwrotu z inwestycji” [return on investment] od AI”.

Obie firmy nawiązały ścisłą współpracę w celu zintegrowania akcelerowanych obliczeń Nvidia, sieci, systemu i modeli sztucznej inteligencji z modułowym rozwiązaniem Lenovo Hybrid AI Advantage.

Edge AI dzięki hiperskalerom

The platformy chmur publicznych wszystkie oferują bogate w funkcje środowiska dla GenAI, uczenia maszynowego i obsługi obciążeń wnioskowania. Mają także ofertę produktów umożliwiających wnioskowanie AI na urządzeniach IoT i urządzeniach brzegowych.

Amazon Web Services oferuje agenta SageMaker Edge; Centrum Azure IoT stanowi część oferty firmy Microsoft; a Google ma Google Distributed Cloud. Takie oferty zwykle skupiają się na wykonywaniu ciężkich zadań, czyli uczeniu maszynowym, wykorzystując zasoby dostępne w odpowiednich chmurach publicznych do tworzenia modeli danych. Są one następnie wdrażane w celu zasilania obciążeń wnioskowania na krawędzi.

Wydaje się, iż w przypadku tradycyjnych firm serwerowych dzieje się tak, iż w odpowiedzi na zagrożenie ze strony sztucznej inteligencji w chmurze dostrzegają one szereg możliwości. Działy IT będą w dalszym ciągu kupować i wdrażać obciążenia lokalne, a sztuczna inteligencja na brzegu sieci jest jednym z takich obszarów zainteresowań. Drugim czynnikiem, który może mieć wpływ na nabywców rozwiązań IT, jest dostępność planów i szablonów, które pomogą im osiągnąć cele związane ze sztuczną inteligencją przedsiębiorstwa.

Według analityka Gartnera, choć dostawcy chmury publicznej bardzo dobrze pokazali sztukę możliwości AI i GenAI, nie byli szczególnie dobrzy w pomaganiu organizacjom w osiąganiu celów związanych ze sztuczną inteligencją.

Mówiąc podczas niedawnego Sympozjum GartneraDaryl Plummer, główny analityk ds. badań w firmie Gartner, ostrzegł, iż dostawcy technologii są zbyt skupieni na patrzeniu na postęp sztucznej inteligencji ze swojej perspektywy, bez zabierania klientów w podróż prowadzącą do osiągnięcia celów tych zaawansowanych systemów sztucznej inteligencji. „Microsoft, Google, Amazon, Oracle, Meta i OpenAI popełniły jeden poważny błąd – pokazują nam, co możemy zrobić, [but] nie pokazują nam, co powinniśmy zrobić” – stwierdził.

Brakujące elementy dotyczą wiedzy dziedzinowej oraz produktów i usług IT, które można dostosować do unikalnych wymagań klienta. Z pewnością wygląda to na obszar, na którym będą chciały się rozwijać firmy takie jak Dell, HPE i Lenovo współpracę z firmami konsultingowymi IT.



Source link

Idź do oryginalnego materiału