Sztuczna inteligencja (AI) trafiła na pierwsze strony gazet i do centrów danych, ale wraz z nią pojawia się szereg czynników związanych z wydajnością i obsługą, które wpływają na pamięć masową w takim samym stopniu, jak każda inna dziedzina IT.
W tym przeglądzie przyglądamy się kluczowym wymaganiom przetwarzania AI w zakresie przechowywania danych, rodzajowi pamięci wymaganej przez sztuczną inteligencję oraz przydatności przechowywania w chmurze dla obciążeń AI.
Wgłębiamy się w potrzeby sztucznej inteligencji i przechowywania danychtakie jak wymagania dotyczące wielkowymiarowych danych wektorowych i punktów kontrolnych podczas szkolenia w zakresie sztucznej inteligencji, a także kwestie zgodności, jakie niesie ze sobą korzystanie ze sztucznej inteligencji.
Przyglądamy się również reakcjom dostawców pamięci masowych na szybki wzrost przypadków użycia sztucznej inteligencji w centrach danych, pod względem powiązań z wiodącymi graczami, takimi jak Nvidia, a także ich oferty pamięci masowych ukierunkowanej na obciążenia AI.
W tym przewodniku sprawdzamy dane potrzeby przechowywania sztucznej inteligencjiwymagań, jakie stawia przed przechowywaniem danych, przydatnością przechowywania danych w chmurze i obiektach dla sztucznej inteligencji oraz kluczowymi produktami do przechowywania danych opartymi na sztucznej inteligencji.
Przyglądamy się użyciu dane wektorowe w AI oraz sposób działania wektorowych baz danych, a także osadzanie wektorów, wyzwania związane z przechowywaniem danych wektorowych oraz główni dostawcy wektorowych baz danych.
Rozmawiamy o tym z Charliem Boyle’em z Nvidii wyzwania związane z danymi w sztucznej inteligencjikluczowe praktyczne wskazówki dotyczące projektów AI oraz wymagania dotyczące przechowywania szkoleń, wnioskowania, RAG i punktów kontrolnych.
Ogłoszenia dostawców pamięci masowej w centrum konferencyjnym Nvdia dotyczące integracji infrastruktury, eliminowanie wąskiego gardła we/wy procesora graficznego i halucynacje AI po uruchomieniu mikrousług Nvidia NeMo i NIM.
Rozmawialiśmy z dyrektorem generalnym Pure Storage, Charliem Giancarlo, o tym, dlaczego Szybkość zapisu ma najważniejsze znaczenie w przypadku obciążeń związanych ze sztuczną inteligencjądostępne przechowywanie danych AI i jego przewidywanie śmierci wirującego dysku.
Rozmawiamy o tym z Grantem Caleyem z NetApp Sztuczna inteligencja i przechowywanie danychpotrzebę skali, wydajności i chmury hybrydowej oraz przenoszenia, kopiowania i klonowania danych na potrzeby wnioskowania.
Jak zachwala Vast Data, operacje punktów kontrolnych AI na celowniku Pamięć masowa oparta na QLC dla obciążeń AI.
Zacznij patrzeć zgodność ze sztuczną inteligencją. Taka jest rada Mathieu Gorge z Vigitrust, który twierdzi, iż zarządzanie sztuczną inteligencją jest wciąż niedojrzałe, ale firmy powinny rozpoznać ograniczenia i przez cały czas działać.
Firma konsultingowa zajmująca się sztuczną inteligencją Crater Labs spędziła ogromną ilość czasu w zarządzaniu dyskami podłączonymi do serwera aby zapewnić nasycenie procesorów graficznych. Przejście na technologię Pure Storage obsługującą wyłącznie pamięć flash obniżyło tę wartość niemal do zera.
Pierwotnie napędzany przez nieistniejącą już pamięć klasy Optane firmy Intel, Parallelstore oferuje ogromne równoległe przechowywanie plików ukierunkowane na szkolenie w zakresie sztucznej inteligencji przypadki użycia w Google Cloud.