Nvidia wciąż wierzy w (swoją) świetlaną przyszłość. Wbrew DeepSeekowi, dzięki modelom rozumującym

homodigital.pl 1 miesiąc temu

Nvidia wciąż wierzy w świetlaną przyszłość – AI a przede wszystkim – swoją. Prezes Jensen Huang zapewnia, wbrew ocenie wielu inwestorów, iż pojawienie się modelu DeepSeek wcale nie zmniejszy popytu na karty firmy. Z kolei rozwój modeli rozumujących zapewni silny popyt na GPU w dającej się przewidzieć przyszłości. Jego argumenty mają swoją wagę, ale przed firmą jest sporo ryzyk. Sprawdzamy jakich.

Najgorszy dzień w historii Nvidii

27 stycznia był najgorszym dniem w historii notowań Nvidii na giełdzie. Kurs akcji spadł o 17% a spółka straciła na wartości niemal 600 mld dolarów. Po kilku dniach do inwestorów doszły implikacje ogłoszenia przez chiński startup DeepSeek jego najnowszego „rozumującego” modelu DeepSeek R1. Który, podobno, został wytrenowany za niecałe 6 mln dolarów, wielokrotnie taniej niż modele amerykańskich gigantów.

Tak naprawdę to rynek przegapił grudniową premierę modelu DeepSeek V3, standardowego, nierozumującego modelu stworzonego przez chińską firmę. Model zasadniczo oferował większość optymalizacji, którymi w styczniu zachwycili się komentatorzy w odniesieniu do R1. Jednym z nielicznych, którzy to dostrzegli był znany badacz AI Andrej Karpathy, który w grudniu odnotował, iż V3 był trenowany na 11x mniejszej mocy obliczeniowej niż Llama 3.1 405 B a wydaje się być lepszym modelem.

W kolejnych dniach po debiucie DeepSeek R1 zaczęły też spływać raporty o tym, iż chińskie modele są szybkie i obliczeniowo efektywne nie tylko w treningu, ale również użytkowaniu, tzw. inference. A to oznaczało, iż z modeli AI będzie można korzystać o wiele taniej. Czytaj – wykorzystując mniej kart Nvidii.

Co gorsza dla Nvidii, DeepSeek udostępnił swój model wszystkim za darmo i w artykule naukowym opisał zastosowane w nim optymalizacje. Więc każda firma budująca modele AI może je zastosować, obniżając przy tym koszty treningu i oferowania AI klientom.

Nvidia kontratakuje… słowami

Na silne spadki cen akcji na giełdzie zareagował założyciel i prezes Nvidii Jensen Huang. Zapewniał on każdego, kto chciał słuchać, iż pojawienie się DeepSeeka jest tak naprawdę dobre dla Nvidii, bo niższe koszty AI oznaczają, iż technologia rozszerzy się dużo szybciej i iż nakłady na nią tak naprawdę nie spadną a wzrosną.

Jakiejś wiarygodności słowom Huanga dodawały deklaracje Big Techów na temat inwestycji w AI. Już po debiucie DeepSeeka R1 Google ogłosił, iż jego nakłady inwestycyjne, głównie w AI, wyniosą w tym roku 75 mld dolarów, a więc o 42% więcej w stosunku do poprzedniego. Następnych parę dni minęło i Amazon zapewnił, iż on z kolei zainwestuje 100 mld dolarów. Cóż, jest największym graczem chmurowym i jeżeli nie chce utracić tej pozycji, to musi inwestować więcej niż inni.

Na pomoc Nvidii ruszył również Dario Amodei, współzałożyciel Anthropica, jednego z najlepiej znanych startupów AI. Według niego, jakiekolwiek oszczędności na mocach obliczeniowych przy budowaniu modeli AI zostaną natychmiast zużyte na zbudowanie bardziej złożonych, inteligentniejszych modeli. Jaki wniosek? Zapotrzebowanie na moc obliczeniową nie spadnie – wręcz przeciwnie.

Trochę w kontrze do tych zapewnień kilka dni temu gruchnęła wieść, iż Microsoft zerwał umowę na wynajem centrów danych. Spółka zapewniła, iż nie zmienia planów inwestycyjnych a tylko dokonuje pewnych przesunięć, ale ziarno niepewności zostało zasiane.

Nvidia wierzy w przyszłość… modeli rozumujących

Ostatnio prezes Nvidii zwrócił uwagę na inny aspekt – rosnącą rolę modeli rozumujących i ich olbrzymie zapotrzebowanie na moc obliczeniową. Zapotrzebowanie, które w ocenie Huanga może być stukrotnie wyższe niż w przypadku poprzedniego pokolenia modeli generatywnej AI. I to już teraz. W przyszłości to zapotrzebowanie może być choćby tysiące lub miliony razy większe.

Marzenia wizjonera? Sny sprzedawane inwestorom? Niekoniecznie, słowa Huanga są oparte na ważkich podstawach.

Kiedy w styczniu OpenAI udostępniło swój model o3 do zamkniętych testów, znany deweloper AI Francois Chollet postanowił sprawdzić nowy model na swoim benchmarku ARC-AGI, składającym się z zadań trywialnych dla ludzi ale dotąd bardzo trudnych dla sztucznej inteligencji. Model o3 w trybie „długomyślącym” a więc zużywającym dużo mocy obliczeniowych uzyskał świetny wynik – 88%. Ale jedna odpowiedź kosztowała… jakieś 2-3 tysiące dolarów w mocach obliczeniowych. Dla standardowych modeli AI koszt odpowiedzi (zwykle nieprawidłowych) był o wiele niższy, rzędu centów lub choćby jeszcze mniej.

Tak więc te tysiące-miliony razy większe moce obliczeniowe to już rzeczywistość a nie – odległa rzeczywistość czy wręcz mrzonka.

Słowa Huanga ponownie wspiera Dario Amodei z Anthropica, który zwraca uwagę, iż stworzenie sztucznej inteligencji bardziej inteligentnej od większości ludzi, czego on sam się spodziewa już niedługo, bo w latach 2026-2027, będzie wymagało zaangażowania milionów najnowszych GPU. Milionów GPU w ciągu najbliższych 2-3 lat.

Musimy również pamiętać, iż popyt na moce obliczeniowe będzie się zwiększać również dzięki coraz większej popularności tak zwanych systemów agentowych, a więc takich, w których sztuczna inteligencja działa w sposób autonomiczny lub półautonomiczny. Modele takie dla wszystkich zadania wysyłają zwykle wiele zapytań do modeli AI, korzystanie z nich jest więc istotnie intensywniejsze pod względem mocy obliczeniowych niż ma to miejsce w przypadku starych dobrych LLM-ów.

Popyt zwolni, konkurencja przyspieszy?

Nie zmienia to jednak postaci rzeczy, iż przesiadka z istniejących już modeli AI lub ich następców na technologie zastosowane w DeepSeeku może, przynajmniej w krótszym terminie, doprowadzić do spadku popytu na moc obliczeniową. A to może prowadzić do redukcji zamówień na karty Nvidii przez największych graczy chmurowych. Na razie takiej groźby jeszcze nie ma – Sam Altman z OpenAI dopiero co narzekał, iż firmie brakuje mocy obliczeniowych.

Dodatkowo na horyzoncie mamy poszerzenie oferty konkurencji. AMD, odwieczny rywal Nvidii na rynku GPU, ma w połowie roku wprowadzić na rynek MI350, nową kartę do obliczeń AI, podobno 35x lepszą niż jej poprzedniczka. Nad swoimi chipami AI pracują również najwięksi klienci Nvidii – Amazon, Microsoft, Google i Meta – i jeżeli uda im się opracować efektywne układy, to prawdopodobnie z euforią zredukują strumień pieniędzy płynący z ich kieszeni do Nvidii.

Nie jest wykluczone więc, iż w ciągu kilku-kilkunastu miesięcy popyt na produkty firmy Huanga nieco zwolni. choćby jeżeli rozwój sztucznej inteligencji przez cały czas będzie się miał bardzo dobrze.

Dokąd nas zaprowadzą modele „rozumujące”?

Również jeżeli chodzi o modele „rozumujące” mamy kilka niewiadomych. Po pierwsze, jak daleko możemy na nich zajść pod względem rozwoju inteligencji? Jeszcze rok temu wydawało się, iż wystarczy zrobić większy model językowy (LLM) i przepuścić przez niego więcej danych i już uzyskamy jeszcze wyższą inteligencję. W ostatnich miesiącach coraz częściej dochodziły na sygnały, iż tak nie jest – nowych danych brakuje a trenowanie coraz to większych modeli jest nieopłacalne, bo wymaga wielkich nakładów a poprawa w inteligencji jest niewielka.

Najnowszego dowodu w tej sprawie dostarcza debiut GPT-4.5 – ostatniego tradycyjnego modelu LLM od OpenAI, który, jak stwierdziła firma nie może być traktowany jako model graniczny (frontier model), a więc taki, który znajduje się na granicy tego co umie sztuczna inteligencja.

W związku z tymi ograniczeniami dotychczasowych LLM-ów, kolejny model GPT-5, które ma się ukazać niedługo – podobno w maju – będzie hybrydą między tradycyjnym modelem a rozumującym o3, hybrydą, która sama będzie decydowała, czy odpowiedzi udzieli szybsza część tradycyjna czy głębiej myśląca część o3.

Skoro stare dobre LLM-y przestały nam się skalować, to pytanie, czy ten sam los nie spotka modeli rozumujących. Zwłaszcza że, jak twierdzi główny naukowiec Mety Yann LeCun, obecne modele mają cztery podstawowe wady: nie rozumieją świata fizycznego, nie mają trwałej pamięci, nie rozumują i brakuje im umiejętności zaawansowanego planowania. Modele rozumujące rozwiążą być może dwa ostatnie problemy, ale dwóch pierwszych prawdopodobnie nie.

Kolejne zagadnienie, jakie się pojawia jest takie, czy zapotrzebowanie na modele rozumujące będzie aż tak powszechne. Burza mózgów w sprawie strategii marketingowej, prosta automatyzacja, prośba o pomoc w przygotowaniu plany na wakacje – to jest chleb powszedni AI. I do nich w zupełności nam wystarczą tradycyjne modele LLM. Chyba zresztą nikt nie chciałby czekać kilkudziesięciu minut czy paru godzin na odpowiedź.

Te „rozumujące” modele oczywiście też będą miały zastosowania – w nauce, inżynierii, programowaniu, przy opracowywaniu leków czy, niestety, nowych broni. Więc prawdopodobnie najnowsze karty Nvidii i tak się świetnie sprzedadzą. Pytanie, czy aż tak dobrze, jak chciałby tego prezes Huang.

Źródło grafiki: Sztuczna inteligencja, model Dall-E 3

Idź do oryginalnego materiału