Dyrektor ds. technologii w Microsofcie, Kevin Scott, ogłosił, iż długoterminową wizją firmy jest wykorzystywanie w centrach danych głównie własnych, niestandardowych chipów półprzewodnikowych. To ruch mający na celu nie tylko zmniejszenie zależności od dominujących dostawców, takich jak NVIDIA i AMD, ale także optymalizację kosztów i wydajności w obliczu eksplodującego zapotrzebowania na moc obliczeniową dla sztucznej inteligencji. Microsoft podąża tym samym śladami swoich największych rywali – Amazona i Google, którzy już od lat rozwijają własne układy scalone.
Podczas konferencji Italian Tech Week, Kevin Scott podkreślił, iż choć NVIDIA przez lata oferowała najlepszy stosunek ceny do wydajności, to Microsoft nie jest “dogmatyczny” w kwestii doboru sprzętu. W obliczu ogromnego niedoboru mocy obliczeniowej (“massive crunch in compute”), firma jest otwarta na wszystkie opcje, które zapewnią odpowiednią przepustowość. Scott potwierdził jednak, iż docelowo Microsoft zamierza opierać swoją infrastrukturę głównie na własnym krzemie.
Pierwsze kroki w tym kierunku zostały już podjęte. W 2023 roku Microsoft zaprezentował swoje pierwsze niestandardowe chipy: Azure Maia AI Accelerator, przeznaczony do obciążeń związanych z AI, oraz Cobalt CPU, oparty na architekturze Arm. Jest to część strategii, która zakłada projektowanie kompletnych systemów dla centrów danych – od chipów, przez sieci, aż po zaawansowane systemy chłodzenia cieczą – aby osiągnąć maksymalną elastyczność i wydajność.

Microsoft nie jest jednak pionierem w tej dziedzinie. Zarówno Amazon, jak i Google od dawna inwestują w rozwój własnych półprzewodników, aby zoptymalizować swoje usługi chmurowe i uniezależnić się od zewnętrznych dostawców:
- Google: Już od 2016 roku rozwija własne układy TPU, które są sercem wielu jego usług AI. Najnowsze generacje, takie jak niedawno zapowiedziane “Ironwood”, są projektowane z myślą o trenowaniu i obsłudze zaawansowanych modeli, takich jak Gemini.
- Amazon (AWS): Gigant chmurowy posiada dwie główne rodziny własnych chipów. Procesory Graviton (oparte na architekturze Arm) oferują lepszą wydajność cenową dla ogólnych obciążeń, podczas gdy akceleratory Trainium i Inferentia są wyspecjalizowane odpowiednio w trenowaniu i wnioskowaniu w modelach AI.
Chociaż Kevin Scott potwierdził kierunek, nie podał konkretnego harmonogramu, kiedy chipy Microsoftu miałyby stać się dominującym rozwiązaniem w centrach danych Azure. Nie jest również do końca jasne, jak wydajność pierwszej generacji chipów Maia i Cobalt wypada w bezpośrednim porównaniu z najnowszymi produktami NVIDII. W obliczu ciągłego niedoboru mocy obliczeniowej, eksperci są zgodni, iż w najbliższej przyszłości wszyscy giganci chmurowi będą przez cały czas w dużym stopniu polegać na chipach NVIDII, traktując własne rozwiązania jako uzupełnienie i alternatywę.