Prawdziwa bitwa o AI nie toczy się w chipach, ale w wydajności obliczeniowej

manager24.pl 3 tygodni temu

Podczas gdy inwestorzy zastanawiają się, kto zdobędzie tytuł największego gracza w dziedzinie sztucznej inteligencji (AI) , to tak naprawdę tylko połowa sukcesu. Nvidia obecnie dominuje na rynku dzięki swoim procesorom graficznym (GPU), podczas gdy Advanced Micro Devices stara się zdobyć przewagę w segmencie GPU i objąć jej prowadzenie. Jednocześnie Broadcom pomaga firmom w opracowywaniu własnych, niestandardowych układów ASIC (układów scalonych dedykowanych konkretnym zastosowaniom) do zastosowań w AI.

Jednak w miarę jak wydajność obliczeniowa zyskuje na znaczeniu, firmą najlepiej przygotowaną do tego środowiska nie jest firma produkująca wyłącznie układy scalone, ale Alphabe . Przyjrzyjmy się, dlaczego firma ta może być gotowa na zostanie wielkim zwycięzcą w kolejnej fazie obliczeń AI.

Integracja pionowa zwycięży

Największym wąskim gardłem w świecie sztucznej inteligencji (AI) nie jest w tej chwili brak układów scalonych, ale brak mocy obliczeniowej. Właśnie dlatego wydajność obliczeniowa staje się tak ważna. Procesory graficzne (GPU) doskonale radzą sobie z szybkim przetwarzaniem ogromnych ilości danych, ale są też energochłonne. Jest to uzasadnione w fazie szkolenia AI, ponieważ jest to raczej jednorazowy wydatek. Jednak wraz ze stopniowym przejściem na wnioskowanie, które stanowi stały wydatek niezbędny do uruchomienia tych dużych modeli językowych (LLM) , wydajność obliczeniowa staje się coraz ważniejsza.

To właśnie tutaj Alphabet ma znaczącą przewagę. Firma poświęciła ponad dekadę na rozwój własnych, niestandardowych układów AI, zaprojektowanych specjalnie dla jej frameworka TensorFlow. Chociaż Broadcom pomógł i zdobywa klientów, nie należy ignorować wewnętrznych wysiłków Alphabetu. Wraz z wdrażaniem przez firmy własnych układów ASIC opartych na Broadcomie, po prostu nie będą one w stanie dorównać procesorom Tensor Processing Units (TPU) Alphabetu, które są w tej chwili w siódmej generacji.

Dużą zaletą procesorów TPU firmy Alphabet jest ich optymalizacja pod kątem infrastruktury i obciążeń chmury obliczeniowej Alphabet. To nie tylko przyczynia się do poprawy wydajności, ale także sprawia, iż ​​układy są bardziej energooszczędne i zużywają mniej energii. To duża przewaga kosztowa, która powinna się tylko pogłębiać w miarę jak wnioskowanie będzie zyskiwać na znaczeniu.

Tymczasem Alphabet nie sprzedaje swoich procesorów TPU klientom. Zamiast tego, aby klienci mogli uzyskać do nich dostęp, muszą uruchamiać swoje obciążenia w Google Cloud. Zwiększa to perspektywy rozwoju firmy, ponieważ pozwala jej teraz wykorzystać liczne możliwości generowania przychodów w obszarze sztucznej inteligencji.

Nie można również pominąć faktu, iż Alphabet wykorzystuje procesory TPU do zasilania własnych, wewnętrznych zadań AI. Dzięki wykorzystaniu własnych, niestandardowych układów scalonych, Alphabet ma przewagę kosztową w rozwijaniu i trenowaniu modelu Gemini AI. Ma również przewagę kosztową w zakresie wnioskowania dla swoich modeli, co daje mu strukturalną przewagę nad konkurentami, takimi jak OpenAI i Perplexity AI, które w dużej mierze opierają się na droższych i energochłonnych procesorach graficznych.

Następny etap

Wraz z rozwojem kolejnego etapu sztucznej inteligencji (AI), integracja pionowa Alphabetu powinna zapewnić firmie doskonałą pozycję, by stać się największym zwycięzcą. Żadna inna firma nie dysponuje tak kompletnym zestawem technologii AI jak ona. Niedawno wprowadzony na rynek model bazowy Gemini 3 spotkał się z szerokim uznaniem, a analitycy z DA Davidson twierdzą, iż oferuje on „możliwości, które w niektórych obszarach znacznie przewyższają to, czego zwykle oczekujemy od tej generacji pionierskich modeli”.

Tymczasem niedawny szał inwestycyjny firmy Nvidia wśród jej własnych klientów wynika z doniesień, iż OpenAI rozpoczął testowanie procesorów TPU pod kątem swoich obciążeń. Według „The Wall Street Journal” , po tym wydarzeniu Nvidia gwałtownie podpisała umowę z OpenAI i zainwestowała w ten startup zajmujący się modelami sztucznej inteligencji. Ta reakcja świadczy o szacunku, jakim Nvidia darzy procesory TPU firmy Alphabet.

Alphabet oferuje również czołowe platformy programowe, takie jak Vertex AI, które pomagają klientom tworzyć własne modele i aplikacje AI oparte na modelu Gemini, a choćby własną rozległą sieć światłowodową, która redukuje opóźnienia. Oczekiwane przejęcie wiodącej firmy zajmującej się bezpieczeństwem w chmurze, Wiz, jedynie wzbogaci jego pakiet technologii AI.

Biorąc to pod uwagę, gdybym miał obstawiać tylko jedną akcję AI w długim terminie, wybrałbym Alphabet.

Idź do oryginalnego materiału