![](https://homodigital.pl/wp-content/uploads/2025/02/big-techy-inwestuja-w-AI-google-wyda-krocie-300x171.jpg)
Kiedy chiński DeepSeek zaprezentował ostatnio swoje najnowsze wysoce wydajne modele AI, wystraszeni inwestorzy zaczęli sprzedawać akcje Nvidii. Obawiali się, iż efektywniejszy model zmniejszy zapotrzebowanie na karty GPU używane w AI. Na razie nic jednak na to nie wskazuje. BigTechy przez cały czas inwestują na potęgę w infrastrukturę AI. Google właśnie ogłosił, iż jego inwestycje, głównie właśnie w AI, wyniosą w tym roku 75 mld dolarów, o 42% więcej niż rok wcześniej.
Całkiem niedawno prezydent Donald Trump ogłaszał z pompą uruchomienie projektu Stargate, czyli zbudowanie wielkich centrów danych. Miało to kosztować 500 mld dolarów w ciągu czterech lat, w tym około 100 mld dolarów w pierwszej fazie. Wydawało się wszystkim, iż to niebotyczne pieniądze. Teraz jednak wygląda na to, iż cztery BigTechy, Amazon, Microsoft, Google i Meta wydadzą na inwestycje, głównie w AI, około 300 mld dolarów. Przy tej kwoie, nakłady na Stargate (nawet jeżeli uda się zamknąć finansowanie tego projektu), nie wydają się już takie niebotyczne.
DeepSeek nic nie zmienia? Big Techy wciąż inwestują w AI
Czy to oznacza, iż pojawienie się DeepSeeka nic nie zmienia? Niekoniecznie. Może sporo namieszać, na przykład zmniejszając dystans między przodującymi w tej chwili modelami, takimi jak te od OpenAI czy Anthropika, a konkurencją ze strony młodszych startupów. Jednak BigTechy, a zwłaszcza trzy największe spółki chmurowe, mogą mieć powody by nie spowalniać wydatków na infrastrukturę. Przynajmniej na razie, a być może nigdy.
Po pierwsze, popyt na ich usługi jest bardzo duży. Ostatnio Microsoft pokazywał, iż jego przychody chmurowe z usług AI rosły nieco wolniej niż się można było spodziewać. Ale nie dlatego, iż zabrakło popytu, ale dlatego, iż centra danych były oddawane nie tak szybko, jak by chciał. Po części prawdopodobnie ze względu na przejściowe problemy techniczne z nowymi kartami Nvidii. Tak więc, jak widać, na razie popyt na dostęp do infrastruktury AI nie jest problemem.
Po drugie, jest kwestia cyklu inwestycyjnego. Big Techy na pewno już zamówiły wszystkie potrzebne im karty Nvidii na ten rok, po prostu dlatego, iż czas oczekiwania na nie to właśnie około 12 miesięcy. A rezygnacja z miejsca w kolejce, choćby jeżeli byłaby możliwa od strony prawnej, mogłaby się okazać kosztowna. Zwłaszcza wtedy, gdyby się okazało, iż popyt na infrastrukturę AI wcale nie zelżał.
DeepSeek? Do usług…
Po trzecie, zamiast się dąsać na DeepSeek i jego potencjalnie rewolucyjny wpływ na rynek AI, trzy największe firmy chmurowe, czyli Amazon, Microsoft i Google, gwałtownie zaczęły udostępniać klientom model chińskiego startupu. W końcu jest otwarty, darmowy i każdy może z niego korzystać. A jeżeli jest faktycznie tak efektywny w używaniu, jak twierdzili jego twórcy, to dostęp do AI będzie istotnie tańszy. A pamiętajmy, iż modele DeepSeeka są, według testów, równie dobre jak GPT-4o i o1 od OpenAI. Które do najtańszych nie należą. Podobno już niektóre amerykańskie startupy rozważają przesiadkę na DeepSeek.
I mamy czwarty czynnik, który wystąpi, jeżeli efektywności DeepSeeka, które prawdopodobnie zostaną gwałtownie wbudowane w inne modele AI (bo model jest otwarty), faktycznie silnie obniżą koszy funkcjonowania modeli AI a więc i ceny. Po prostu może nas czekać eksplozja zastosowań sztucznej inteligencji. Tak jak niegdyś wprowadzenie taśmy montażowej i obniżenie kosztów produkcji samochodów doprowadziło do eksplozji motoryzacji.
A BigTechy, z ich infrastrukturą chmurową dla AI, są trochę jak sieci stacji benzynowych dla motoryzacji. jeżeli spodziewasz się eksplozji popytu od klientów, to nie wstrzymujesz rozwoju infrastruktury, z której mieliby korzystać.
A to, tak swoją drogą, zupełnie niezłe wieści dla Nvidii.
Źródło grafiki: Sztuczna inteligencja, model Dall-E 3