Jest jedna szafa z jednostkami dystrybucji zasilania, przełącznikami sieciowymi i jednostkami dystrybucji chłodzenia, wszystkie podłączone do szafy obliczeniowej, w której znajdują się zasilacze, procesory graficzne i serwery CPU. Dostępny jest sprzęt sieciowy, który łączy się z „globalną” siecią centrów danych Google, która stanowi własną strukturę centrum danych Google. Nie jesteśmy pewni, jakie połączenie tkaniny będzie wybrane pomiędzy tymi stojakami; jeżeli chodzi o optymalną wydajność, NVIDIA zaleca InfiniBand (przejęcie Mellanox). Biorąc jednak pod uwagę inną konfigurację infrastruktury Google, mogą być obecne przełączniki Ethernet. Co ciekawe, projekt Google dotyczący stojaków GB200 różni się od projektu Azure, ponieważ wykorzystuje dodatkową przestrzeń w stojaku do dystrybucji chłodziwa do lokalnych wymienników ciepła, tj. chłodnic. Jesteśmy ciekawi, czy Google udostępni więcej informacji na temat infrastruktury, ponieważ jest nazywany królem infrastruktury ze względu na zdolność do skalowania i utrzymywania wszystkiego w porządku.