’Sztuczna inteligencja się nie opłaca’. Fatalna passa Nvidia, nie pomógł nowy chip AI

bithub.pl 1 rok temu

Giełdowa spółka Nvidia była jedną z najjaśniej świecących gwiazd i oczek w głowie Nasdaq przez wiele miesięcy. Spółka posiada ok 80% udziałów w rynku 'elitarnych’, super-wydajnych chipów AI. Te układy są niezbędne by modele językowe dysponowały potężną mocą, a sieci neuronowe korzystały z nich. Problem w tym, iż kupno takich układów to dla wielu firm potężny wydatek. Część analityków wskazuje, iż sporo biznesów zaczyna mocniej kalkulować budżety na sztuczną inteligencję w obawie o przełożenie na marże.

Apple, Microsoft, Amazon, and Nvidia make up 20% of the S&P 500

They all have valuations in the 90th percentile of the last 10 years

This makes the S&P 500 very vulnerable to a recession

A thread 🧵

— Game of Trades (@GameofTrades_) August 9, 2023

Tajemnicą poliszynela jest, iż ChatGPT dla OpenAI przestał się opłacać od samego początku. Odkąd firma wspierana przez Microsoft wypuściła publiczną generatywną AI jej starty wzrosły dwukrotnie i już w maju przekroczyły pół miliarda dolarów. Gdzie w tym wszystkim jest biznes? Nvidia 'rozpaczliwie’ próbuje temu zaradzić, przedstawiła nową rodzinę chipów dedykowanych dla sztucznej inteligencji. Takich, które nie będą bolały kieszeni firm tak bardzo. Rynek odebrał ten fakt jako sygnał, iż popyt na układy AI może nie być tak silny jak początkowo myślano.

Beware: The AI-hype has gotten valuations to frothy levels

Nvidia has a P/E ratio of a staggering 224x pic.twitter.com/7Pejo6u7l3

— Game of Trades (@GameofTrades_) August 8, 2023

Nowy produkt

Spółka przedstawiła nowy chip dla AI i poinformowała, iż dzięki niemu koszty szkolenia LLM znacznie spadną (wraz z nimi prawdopodobnie zyski i przychody Nvidia). Mowa o GH200 – ten sam procesor graficzny co H100, najwyższej klasy układ AI firmy. Spółka łączy go ze 141 gigabajtami najnowocześniejszej pamięci, oraz 72-rdzeniowym procesorem centralnym ARM. CEO Jensen Huang znany z doskonałych zdolności 'prezentacyjnych’ przedstawił go jako produkt stworzony z myślą o o skalowaniu światowych centrów danych. Z euforią wypowiadał się na temat dotychczasowych dokonań AI mówiąc, iż teraz każdy jest programistą, 'wystarczy pogadać z komputerem’. Nvidia stara się zwalczyć konkurencję, głównie AMD ale także Google i Amazon, które planują uruchomić tańszą produkcję dla firmowych chipów AI.

Specjalnością Nvidia są układy graficzne (GPU) – to one stały się preferowanymi układami dla dużych modeli sztucznej inteligencji. Bard od Google czy ChatGPT od OpenAI. Chipy Nvidii są jednak deficytowe, ponieważ giganci technologiczni, dostawcy usług w chmurze i startup opierają się własnie na nich. Firmy walczą o wyższą pojemność GPU, aby opracować własne modele językowe. Nowy chip Nvidia będzie dostępny u dystrybutorów już w drugim kwartale przyszłego roku. Powinien być dostępny do testów jeszcze pod koniec 2023 roku. Nvidia nie ujawniła dotąd jego ceny, patrząc jednak na jego możliwości – tanio na pewno nie będzie. Pierwsi kupujący już się zgłosili – to chińscy giganci internetowi. Wysłali zapytanie warte 5 mld USD. Czy Stany Zjednoczone wyrażą zgodę na taką transakcję?

*PRESIDENT BIDEN ORDERS BAN ON CERTAIN U.S. TECH INVESTMENTS IN CHINA

*CHINA'S INTERNET GIANTS ORDER $5 BILLION OF NVIDIA CHIPS TO POWER AI AMBITIONS: FT

🇺🇸🇨🇳 pic.twitter.com/cxLQRwgZz4

— Investing.com (@Investingcom) August 10, 2023

Uczenie i wnioskowanie

To dwa podstawowe etapy szkolenia IA. Model jest trenowany przy użyciu ogromnych zbiorów danych. To może trwać miesiącami i czasami wymaga tysięcy procesorów GPU. Następnie jest wykorzystywany w oprogramowaniu do tworzenia prognoz lub generowania treści, przy użyciu procesu zwanego wnioskowaniem. Podobnie jak uczenie, wnioskowanie jest kosztowne. Zwyczajnie obliczeniowo wymaga dużej mocy za każdym razem, gdy oprogramowanie jest uruchamiane, na przykład podczas generowania tekstu czy obrazu.

W przeciwieństwie do treningu, wnioskowanie ma miejsce non stop podczas gdy trenowanie AI odbywa się tylko wtedy, gdy model ma przejść optymalizację. CEO Nvidia reklamował nowy produkt mówiąc, iż „Możesz wziąć prawie każdy duży model językowy, który chcesz i umieścić go w tym, a on będzie wnioskował jak szalony (…) Koszt wnioskowania dużych modeli językowych znacznie spadnie”. GH200 specjalnie został zaprojektowany do wnioskowania AI, ponieważ ma większą pojemność pamięci. Nvidia H100 ma 80 GB pamięci, w porównaniu do 141 GB w nowym GH200. Nvidia ogłosiła również system, który połączy dwa układy GH200 w jeden super układ dla jeszcze większych modeli.

Nieśmiertelny cykl biznesowy

Cykl w niemal każdej branży wygląda podobnie – nadmierny optymizm powoduje zwiększenie mocy przez wielu producentów (lub jednego jeżeli posiada monopol). Ostatecznie nadpodaż jest tak duża, iż przerasta popyt. To stopniowo powoduje spadek cen produktów, który przybiera na sile w miarę aż rynek staje się w pełni nasycony. Ostatecznie producenci ograniczają produkcję, a powszechny optymizm zostaje zastąpiony ostrożnością i pesymizmem. Sporym zagrożeniem dla Nvidia jest recesja, która jeżeli nadejdzie – ograniczy budżety inwestycyjne wielu firm. Finalnie AI implementowana będzie po to, by zwiększyć zyski. Nieopłacalne rozwijanie modeli LLM, wymagające wielomilionowych inwestycji w chipy może z czasem okazać się zaporą nie do przejścia wobec słabnącego momentum gospodarki. Odwrócona krzywa rentowności krótko i długoterminowych obligacji do tej pory była 'nieomylnym’ prognostą każdej z poprzednich recesji światowych.

I hear it argued that the inverted yield curve must not matter this time, because if it mattered then it should have mattered by now. This misunderstands the 15-month lag. pic.twitter.com/JOPi3cxuPx

— Tom McClellan (@McClellanOsc) August 8, 2023
Idź do oryginalnego materiału