Własne układy Google stają się kluczem do dominacji w chmurze i AI

itreseller.com.pl 1 tydzień temu

Google od ponad dekady rozwija własne procesory Tensor Processing Unit. Początkowo miały obsługiwać wyłącznie wewnętrzne potrzeby koncernu, dziś stają się jednym z najważniejszych filarów jego potęgi w sztucznej inteligencji. Siódma generacja układów, nazwana Ironwood, trafi w najbliższych tygodniach do klientów Google Cloud i symbolicznie otwiera nowy etap – moment, w którym długofalowa strategia Google zaczyna przynosić realne zyski.

Nvidia pozostaje liderem rynku chipów AI, ale choćby jej kluczowi klienci, w tym Google, coraz częściej polegają na własnych rozwiązaniach. TPU Ironwood to nie tylko nowy produkt, ale dowód, iż Google potrafi łączyć sprzęt, oprogramowanie i chmurę w spójny, skalowalny ekosystem.

TPU, które napędzają rozwój chmury

Nowy układ Ironwood oferuje czterokrotnie wyższą wydajność od poprzednika i do dziesięciu razy większą efektywność energetyczną w porównaniu z wcześniejszym TPU v5p. Każdy chip dysponuje 192 GB pamięci HBM3E, a w klastrach Ironwood Superpod łączy się ich ponad 9 000. Google twierdzi, iż rozwiązanie jest w stanie obsługiwać zarówno trenowanie największych modeli językowych, jak i generatywnych agentów działających w czasie rzeczywistym.

To właśnie rosnące zapotrzebowanie na TPUs jest jednym z głównych czynników napędzających Google Cloud. W trzecim kwartale 2025 roku przychody tej jednostki wzrosły o 34% rok do roku, osiągając 15,15 mld USD. CEO Sundar Pichai mówi wprost: popyt na infrastrukturę AI, zarówno TPU, jak i GPU, stał się kluczowym źródłem wzrostu.

Od rywala Nvidii do partnera dla całego rynku

Google nie sprzedaje swoich układów jako sprzętu, ale udostępnia je w modelu aaS. To pozwala mu rozwijać chmurę szybciej niż konkurencja, zachowując kontrolę nad całym łańcuchem wartości. W 2025 roku firma podpisała umowy warte dziesiątki miliardów dolarów, w tym rozszerzone partnerstwo z Anthropic, które planuje wykorzystać choćby milion chipów TPU do rozwoju modeli Claude. Alphabet zainwestował w tę spółkę 3 mld USD, zyskując pozycję głównego dostawcy infrastruktury AI dla jej najnowszych modeli.

Podobne umowy zawarto z Meta i OpenAI, które zaczęły korzystać z Google Cloud obok dotychczasowych partnerów. Analitycy szacują, iż sam segment TPU i dział DeepMind mógłby zostać wyceniony na 900 mld USD, co stanowi niemal jedną czwartą kapitalizacji Alphabetu.

Nowa skala i nowe ambicje

Google nie zamierza zwalniać. Wydatki inwestycyjne firmy w 2025 roku wzrosły do 93 mld USD, a kolejne miliardy mają zostać przeznaczone na rozwój infrastruktury AI. Jednym z projektów przyszłości jest Suncatcher – eksperyment z siecią satelitów zasilanych energią słoneczną, które będą testować TPUs w przestrzeni kosmicznej. Celem jest ograniczenie wpływu centrów danych na środowisko i stworzenie rozproszonego systemu obliczeniowego poza Ziemią.

Eksperci z D.A. Davidson i Morgan Stanley wskazują, iż Google zbliża się do Nvidii nie tylko technologicznie, ale i kosztowo. TPU Ironwood to układ, który może realnie zmienić rynek. Jak zauważył analityk James Sanders z Tech Insights, Google buduje „chip bardzo precyzyjnie dostosowany do własnych obciążeń”, co daje mu przewagę efektywnościową, której rywale nie są w stanie łatwo powielić.

Idź do oryginalnego materiału