Nowe procesory Intel Xeon 6 przyspieszają rewolucję AI w centrach danych

itreseller.com.pl 6 godzin temu

Intel prezentuje trzy nowe procesory z serii Xeon 6, zaprojektowane z myślą o maksymalizacji wydajności systemów AI opartych na akceleratorach GPU. Nowości trafiły już do flagowego rozwiązania NVIDIA DGX B300.

Przełomowe technologie w nowych Xeonach 6

Intel oficjalnie ogłosił rozszerzenie swojej oferty procesorów serii Xeon 6 o trzy modele z rdzeniami Performance (P-cores), opracowanymi specjalnie do obsługi najbardziej zaawansowanych systemów AI napędzanych przez GPU. Kluczową innowacją jest technologia Priority Core Turbo (PCT), która w połączeniu z Intel Speed Select Technology – Turbo Frequency (SST-TF) umożliwia dynamiczną regulację częstotliwości wybranych rdzeni procesora.

Nowe procesory trafiły już na rynek, a jeden z modeli – Intel Xeon 6776P – pełni rolę CPU w najnowszym systemie NVIDIA DGX B300. To rozwiązanie łączy wysoką wydajność zarządzania z możliwością elastycznego wsparcia dla coraz większych modeli AI oraz rosnących zbiorów danych. Jak podkreśla Karin Eibschitz Segal, wiceprezes Intela i tymczasowa szefowa Data Center Group:

„Nowe procesory pokazują niezrównaną wydajność Xeonów 6, czyniąc je idealnym wyborem dla systemów AI nowej generacji. Zacieśniamy współpracę z NVIDIA, aby przyspieszać wdrożenia AI w różnych branżach.”

Priority Core Turbo i elastyczność zasobów CPU

Najważniejszą nowością technologiczną w Xeonach 6 jest Priority Core Turbo, pozwalająca na dynamiczne podkręcanie wybranych rdzeni o wysokim priorytecie (HP cores) – szczególnie tam, gdzie wymagane są zadania sekwencyjne lub przetwarzanie szeregowe. Jednocześnie rdzenie o niższym priorytecie (LP cores) pracują na bazowej częstotliwości, co zapewnia optymalne wykorzystanie mocy CPU. W praktyce przekłada się to na szybsze zasilanie GPU danymi i zwiększoną ogólną efektywność systemu.

Ważne parametry techniczne:

  • Do 128 rdzeni P-core w jednym CPU, zapewniających równomierny podział zadań i wysoką wydajność w zastosowaniach AI.
  • Szybsza pamięć (do 30% szybciej niż konkurencja) – obsługa MRDIMM i CXL gwarantuje wysoką przepustowość, niezbędną do pracy z dużymi modelami AI.
  • Więcej linii PCIe (o 20% względem poprzedników), co przekłada się na wyższą wydajność transferu danych w wymagających aplikacjach.
  • Zaawansowana obsługa FP16 dzięki Intel Advanced Matrix Extensions, umożliwiająca efektywne operacje macierzowe najważniejsze dla nowoczesnych algorytmów uczenia maszynowego.
Idź do oryginalnego materiału