DeepSeek wstrząsnął Wall Street — co to oznacza dla AI?

homodigital.pl 1 dzień temu

DeepSeek wstrząsnął Wall Street — nowy model chińskiego startupu spowodował, iż inwestorzy na potęgę zaczęli sprzedawać akcje Nvidii, ale przeceny dotknęły większość Big Techów. Co spowodowało tak wielkie poruszenie na Wall Street i co DeepSeek R1 oznacza dla AI? Sprawdzam.

DeepSeek R1, „rozumujący” model chińskiej firmy, bynajmniej nie jest pierwszym „rozumującym” modelem od podmiotu z Państwa Środka — swoje modele już w zeszłym roku udostępniły trzy chińskie podmioty, w tym Alibaba. Czemu więc wstrząs przyszedł dopiero teraz?

Po pierwsze, wyniki benchmarków wskazują, iż jest to model porównywalny, a w niektórych zastosowaniach lepszy od o1, najlepszego w tej chwili modelu rozumującego od OpenAI. Po drugie, wytrenowanie tego modelu kosztowało podobno niecałe 6 mln dolarów. Prawdopodobnie wielokrotnie mniej, niż trenowanie o1. Po trzecie, chiński startup udostępnił swój model wszystkim na bardzo liberalnej licencji MIT i opisał proces jego tworzenia w również powszechnie dostępnym artykule — tak by inni mogli skorzystać z podobnych technik.

Jeśli można taniej… to po co przepłacać?

Ta mieszanka świetnych osiągów, niskich kosztów i powszechnej dostępności najpierw wstrząsnęła środowiskiem AI w USA, a następnie zaczęła przesiąkać do świadomości inwestorów. Proces ten nabrał rozpędu w weekend i w poniedziałek Nvidia otworzyła się 12,5% poniżej poprzedniego zamknięcia. Na koniec dnia Nvidia traciła już 17% — z jej wyceny rynkowej zniknęło niemal 600 mld dolarów.

Skąd tak nerwowa reakcja? Cóż, jeżeli przyszłe modele będzie można wytrenować za ułamek ceny — czyli mocy obliczeniowej — tego co dotychczas wydawały firmy budujące największe modele, to zapotrzebowanie na karty Nvidii na pewno spadnie. A jeżeli spadnie popyt, to spadną ceny i marże firmy. Na to wszystko nałożyła się mocno wyżyłowana wycena firmy, zwiększająca nerwowość inwestorów.

Zapotrzebowanie na karty Nvidii i ich wpływ na klientów marki

Przeceny, choć istotnie mniejsze, bo kilkuprocentowe, dotknęły również największych klientów Nvidii. Firmy takie jak Microsoft, Meta czy Google w krótkim terminie mogą stracić — bardziej efektywne modele oznaczają mniejsze zapotrzebowanie na moc obliczeniową z ich centrów danych, przynajmniej na razie. Ostra przecena kart Nvidii prawdopodobnie spowodowałaby przyspieszoną ich amortyzację na bilansach Big Techów, powodując pewne straty, choćby jeżeli tylko księgowe. W nieco dłuższym terminie inwestorzy jednak prawdopodobnie odetchną z ulgą, gdy firmy zaczną ogłaszać redukcje swoich bizantyjskich planów inwestycyjnych.

A co DeepSeek oznacza dla AI? Głównie dobre rzeczy

Po pierwsze, AI będzie szybciej i taniej działać. Należy się spodziewać, iż niemal każdy model, który zostanie udostępniony w następnych miesiącach, będzie wykorzystywać techniki opisane przez chiński startup. To również dobre dla planety — mniej wykorzystywanych mocy obliczeniowych to mniej przepalonych gigawatów energii.

Po drugie, możemy liczyć na to, iż do wyścigu AI przyłączą się nowe startupy. Jak dotąd, właśnie ze względu na potężne koszty mocy obliczeniowych potrzebnych do trenowania modeli i korzystania z nich, kilka firm mogło dogonić osiągnięcia OpenAI, Anthropica, Google czy Mety. Po prostu nie miały szansy zapewnić sobie odpowiedniego finansowania. Teraz ta bariera ulegnie obniżeniu. Bo dzięki intelektualnej hojności DeepSeeku, z jego optymalizacji będzie mógł skorzystać każdy.

Obniżony koszt jednostkowy usług AI dzięki większej efektywności powinien skutkować niższymi scenami usług AI, a to z czasem doprowadzi do szybszego ich upowszechnienia.

Świetlana przyszłość sztucznej inteligencji

Jak napisał w komentarzu Bank of America, „niższy koszt mocy obliczeniowej AI powinien ułatwić szerszą adopcję usług AI, od samochodów do telefonów”.

A więc świetlana lub nie, przyszłość z powszechnymi usługami AI prawdopodobnie nadejdzie szybciej.

A ta świetlana przyszłość AI to prawdopodobnie dobra wiadomość dla Big Techów — zwłaszcza chmurowych. Bo znaczna część tych usług AI będzie tworzona w ich chmurach obliczeniowych. Dla nich przyspieszony rozwój AI to rozwój ich biznesu. Więc na swoich inwestycjach w infrastrukturę pewnie nie stracą — choćby jeżeli zwrot z inwestycji będzie nieco wolniejszy, niż dotąd zakładali.

Źródło grafiki: Sztuczna inteligencja, model Dall-E 3

Idź do oryginalnego materiału