Cały system jest połączony dzięki sieci Infiniband, standardu dla systemów z akceleracją GPU ze względu na mniejsze opóźnienia w przesyłaniu pakietów. Chociaż szczegóły systemu są skąpe, widzimy, iż zintegrowane chłodzenie cieczą w zamkniętej pętli pozwala na umieszczenie stojaków GPU w formie 1U w celu zwiększenia gęstości. Biorąc pod uwagę, iż systemy te będą trafiać do szerszych centrów danych Microsoft Azure, system musi być łatwy w utrzymaniu i chłodzeniu. Rzeczywiście istnieją ograniczenia w zakresie mocy i mocy cieplnej, jakie mogą obsłużyć centra danych firmy Microsoft, dlatego tego typu systemy często mieszczą się w wewnętrznych specyfikacjach opracowanych przez firmę Microsoft. Istnieją oczywiście systemy o większej gęstości obliczeniowej, takie jak NVL72 firmy NVIDIA, ale osoby zajmujące się hiperskalem powinny zwykle wybierać inne niestandardowe rozwiązania, które pasują do specyfikacji ich centrum danych. Na koniec Microsoft zauważył, iż możemy spodziewać się więcej szczegółów na nadchodzącej konferencji Microsoft Ignite w listopadzie i dowiedzieć się więcej o systemach sztucznej inteligencji opartych na GB200.