Qualcomm prezentuje AI200 i AI250 – nową generację akceleratorów AI dla centrów danych

itreseller.com.pl 2 dni temu

Qualcomm wchodzi na rynek akceleratorów centrów danych z dwoma nowymi układami AI200 i AI250, zapowiadając przełom w wydajności inferencji modeli generatywnych. Oba rozwiązania, zaprojektowane z myślą o pracy w skali całych szaf serwerowych, mają zapewnić wyjątkowy stosunek mocy obliczeniowej do zużycia energii i kosztów, a to najważniejszy czynnik w erze gwałtownie rosnących kosztów utrzymania infrastruktury AI.

Nowa architektura pamięci i chłodzenie cieczą

Model Qualcomm AI200 został stworzony z myślą o dużych modelach językowych (LLM) i multimodalnych (LMM). Każda karta obsługuje do 768 GB pamięci LPDDR, co stanowi jedną z najwyższych wartości w tej klasie urządzeń. Taka konfiguracja umożliwia efektywne przetwarzanie złożonych zapytań przy niższych kosztach jednostkowych i mniejszym zapotrzebowaniu na energię.

Z kolei AI250 wprowadza zupełnie nową architekturę pamięci opartą na obliczeniach blisko pamięci (near-memory computing). Qualcomm deklaruje, iż zapewnia ona ponad 10-krotnie wyższą efektywną przepustowość pamięci przy jednoczesnym znacznym ograniczeniu zużycia energii. Rozwiązanie to ma umożliwić tzw. „rozproszoną inferencję”, pozwalającą elastycznie wykorzystywać zasoby obliczeniowe w zależności od obciążenia i potrzeb klienta.

Oba akceleratory wyposażono w bezpośrednie chłodzenie cieczą, interfejs PCIe oraz Ethernet dla łączenia wielu racków w klastry. Zużycie energii całej szafy określono na poziomie 160 kW, co przy wysokiej gęstości obliczeniowej i zaawansowanym chłodzeniu stanowi kompromis między mocą a sprawnością energetyczną.

Kompletny ekosystem programowy i bezpieczeństwo AI

Qualcomm podkreśla, iż kluczowym elementem oferty jest bogaty stos programowy, obejmujący narzędzia od warstwy aplikacyjnej po systemową. Akceleratory współpracują z najpopularniejszymi frameworkami uczenia maszynowego i generatywnego AI, takimi jak TensorFlow, PyTorch czy Hugging Face.

W pakiecie znalazła się biblioteka Qualcomm Efficient Transformers oraz AI Inference Suite, które umożliwiają bezpośrednie wdrażanie modeli z repozytoriów takich jak Hugging Face jednym kliknięciem. Oprogramowanie zawiera również narzędzia do monitorowania wydajności, zarządzania zasobami oraz obsługę confidential computing, gwarantującą pełną ochronę danych podczas inferencji.

„Dzięki AI200 i AI250 definiujemy na nowo, czym jest wydajność inferencji AI w skali racka. Pozwalamy klientom wdrażać generatywną AI przy bezprecedensowo niskim TCO, zachowując elastyczność i bezpieczeństwo, jakich wymagają współczesne centra danych” – powiedział Durga Malladi, wiceprezes i dyrektor generalny działu Edge Solutions & Data Center w Qualcomm Technologies.

Pierwsze systemy AI200 mają trafić na rynek w 2026 roku, a AI250 – rok później. Firma zapowiada coroczne aktualizacje platformy, obejmujące zarówno sprzęt, jak i oprogramowanie, co ma umożliwić przedsiębiorstwom płynne przechodzenie na kolejne generacje bez konieczności przebudowy całej infrastruktury.

Znaczenie dla rynku centrów danych

Nowe układy Qualcomma mogą znacząco wpłynąć na strukturę rynku AI w centrach danych, zwłaszcza w segmencie firm, które potrzebują wysokowydajnej inferencji przy ograniczonych budżetach operacyjnych. W dobie rosnących kosztów energii i sprzętu coraz większą wartość zyskują rozwiązania o niskim TCO oraz łatwej integracji z istniejącymi modelami.

Dzięki AI200 i AI250 Qualcomm pozycjonuje się nie jako rywal w wyścigu o największą moc obliczeniową, ale jako dostawca najbardziej efektywnego energetycznie i kosztowo środowiska do obsługi generatywnych modeli AI w skali centrów danych.

Idź do oryginalnego materiału