Podczas konferencji Huawei Connect Europe w Madrycie chiński gigant zaprezentował gruntownie odświeżone oferty pamięci masowych dla firm. Nowe systemy OceanStor Dorado i Pacific mają nie tylko poprawić wydajność, ale także uniezależnić sztuczną inteligencję od trudno dostępnych układów HBM. Kluczową rolę odgrywa tu technologia UCM – Unified Cache Manager – która inteligentnie zarządza przepływem danych między GPU, DRAM i SSD.
Huawei stawia na suwerenność pamięci i efektywność AI
Według informacji opublikowanych przez serwisy Blocks & Files, EE Times China oraz Security Times, Huawei znacząco rozbudowuje swoje portfolio rozwiązań pamięci masowych. Po wrześniowej zapowiedzi planu rozwoju chipów Ascend do 2028 roku firma prezentuje nową generację systemów OceanStor Dorado i Pacific, w tym zupełnie nową linię Dorado A Series.
Huawei koncentruje się na dwóch głównych rodzinach rozwiązań. Pierwsza, OceanStor Dorado, obsługuje dane strukturalne w protokołach SAN, NAS i S3. Druga, OceanStor Pacific, przeznaczona jest dla danych niestrukturalnych i obsługuje szeroki zestaw protokołów – od SMB i NFS po HDFS, POSIX czy Apache Iceberg. Uzupełnieniem oferty jest OceanDisk JBOD, czyli modularne półki dyskowe bez kontrolerów, pozwalające rozbudowywać przestrzeń magazynową.
Jak podkreśla Blocks & Files, mimo niewielkiej obecności Huawei w Stanach Zjednoczonych, segment storage rozwija się dynamicznie i tylko w Europie przychody wzrosły o 20% w 2024 roku. Dane cytowane w raporcie wskazują, iż Huawei może być już drugim największym dostawcą pamięci masowych na świecie, ustępując jedynie Dellowi.

UCM – klucz do redukcji zależności od HBM
Nowością, która przyciąga największą uwagę, jest Dorado A Series, wariant wysokowydajny, zoptymalizowany pod kątem uczenia i inferencji modeli AI. Modele A600 i A800 wykorzystują oprogramowanie UCM (Unified Cache Manager), które zarządza pamięcią podręczną klucz–wartość (KV Cache).
Zamiast polegać wyłącznie na kosztownej pamięci HBM (High Bandwidth Memory), UCM dynamicznie klasyfikuje dane:
- gorące dane kierowane są do HBM,
- ciepłe do pamięci DRAM,
- zimne trafiają na dyski SSD.
Według Blocks & Files takie rozwiązanie pozwala zmniejszyć wykorzystanie HBM w niektórych obciążeniach choćby o 80%. W praktyce oznacza to, iż centra danych w Chinach mogą prowadzić złożone operacje AI przy użyciu tańszych, lokalnych układów pamięci, co jest istotne po wprowadzeniu 2 stycznia 2025 roku amerykańskiego zakazu eksportu do Chin chipów HBM2e i szybszych.
Jak podaje EE Times China, UCM zwiększa efektywność przetwarzania modeli AI, a jednocześnie wzmacnia krajowy ekosystem inference. W testach przywołanych przez Security Times system skraca opóźnienia odpowiedzi w interakcjach konwersacyjnych choćby o 90% i zwiększa przepustowość (TPS) w długich sekwencjach od 2 do 22 razy. Huawei wykorzystuje do tego zestaw algorytmów sparse attention, które optymalizują współpracę obliczeń i pamięci.
Pacific – jeziora danych z interfejsem w stylu ChatGPT
Drugim filarem nowej oferty jest OceanStor Pacific 9926, zaawansowany system all-flash przeznaczony dla środowisk analitycznych i AI. Urządzenie mieści aż 8 PB (8 000 TB) danych w obudowie 2U, wykorzystując 36 dysków SSD o pojemności 122,88 TB każdy.
System zapewnia do 95% oszczędności przestrzeni w porównaniu z tradycyjnymi dyskami HDD i redukcję zużycia energii o 79%, osiągając efektywność na poziomie 0,25 W/TB. Według Huawei, napędy w Pacific 9926 są produkcji własnej, choć korzystają z pamięci NAND pochodzącej od partnerów zewnętrznych.
Najbardziej nowatorskim elementem jest DME (Data Management Engine), warstwa zarządzająca z interfejsem przypominającym ChatGPT. Administratorzy mogą wydawać polecenia w języku naturalnym, co ma przyspieszać zarządzanie złożonymi środowiskami danych i ułatwiać automatyzację.









