Dyrektor generalny Nvidii opowiada o szkoleniach związanych ze sztuczną inteligencją, uczeniu się podczas testów i gigawatach

cyberfeed.pl 3 dni temu


Nvidia w dalszym ciągu odnotowuje rekordowy wzrost w swojej działalności związanej z centrami danych, napędzany przyspieszeniem wzrostu gospodarczego sztuczna inteligencja (AI) obciążenia.

Firma odnotowała kwartalne przychody w wysokości 35,1 miliarda dolarów, co oznacza wzrost o 17% w porównaniu z drugim kwartałem i o 94% w porównaniu z rokiem poprzednim. Działalność związana z centrami danych, dostarczająca procesory graficzne (GPU) do serwerów AI, wniosła w tym kwartale 30,8 miliarda dolarów, co stanowi większość przychodów firmy.

„Epoka sztucznej inteligencji nabiera rozpędu, napędzając globalne przejście w stronę komputerów Nvidia” – powiedział Jensen Huang, założyciel i dyrektor generalny Nvidia.

Omawiając firmę i chipy nowej generacji, dodał: „Zapotrzebowanie na Hoppera i oczekiwania na Blackwell – w pełnej wersji produkcyjnej – są niesamowite, ponieważ twórcy modeli podstawowych skalują pomiary przed i po szkoleniu oraz wnioskowanie.

„Sztuczna inteligencja zmienia każdą branżę, firmę i kraj” – powiedział Huang. „Przedsiębiorstwa wdrażają agentyczną sztuczną inteligencję, aby zrewolucjonizować przepływy pracy. Inwestycje w robotykę przemysłową gwałtownie rosną wraz z przełomowymi osiągnięciami w fizycznej sztucznej inteligencji, a kraje uświadomiły sobie znaczenie rozwoju krajowej sztucznej inteligencji i infrastruktury”.

Według protokołu rozmowy telefonicznej w sprawie zarobków opublikowane na Seeking Alphadyrektor finansowa Colette Kress stwierdziła, iż ​​sprzedaż procesorów graficznych Nvidia H200 znacznie wzrosła do „dwucyfrowych miliardów”. Opisała to jako „najszybszy rozwój produktów w historii naszej firmy”, dodając, iż dostawcy usług w chmurze odpowiadali za około połowę sprzedaży centrów danych Nvidii.

Podczas rozmowy telefonicznej dotyczącej zarobków Huang omówił metody poprawy dokładności i skalowania dużych modeli językowych. „Skalowanie przedtreningowego podstawowego modelu sztucznej inteligencji pozostaje nienaruszone i trwa” – powiedział. „Jak wiecie, jest to prawo empiryczne, a nie podstawowe prawo fizyczne, ale dowody wskazują, iż stale się ono skaluje”.

Huang powiedział, iż skalowanie potreningowe, które rozpoczęło się od uczenia się przez wzmacnianie informacji zwrotnych od ludzi, w tej chwili wykorzystuje informacje zwrotne AI i dane wygenerowane syntetycznie.

Innym podejściem jest skalowanie czasu testu. „Im dłużej myśli, tym lepszą i wyższej jakości odpowiedź daje. Bierze pod uwagę takie podejścia, jak łańcuch myślowy i planowanie wielościeżkowe, a także wszelkiego rodzaju techniki niezbędne do refleksji i tak dalej, i tak dalej” – powiedział. „To trochę tak, jakbyśmy zastanawiali się w głowie, zanim odpowiemy na pytanie”.

Huang powiedział, iż zwiększenie wydajności procesorów graficznych zmniejsza koszty szkolenia i wnioskowania AI. „Obniżamy koszty sztucznej inteligencji, aby była znacznie bardziej dostępna” – dodał.

Patrząc na czynniki, które mogą zahamować fenomenalny rozwój firmy, Huang powiedział: „Większość centrów danych ma w tej chwili moc od stu do kilkuset megawatów, a my planujemy budowę gigawatowych centrów danych.

„Tak naprawdę nie ma znaczenia, jak duże są centra danych moc jest ograniczona”- powiedział, dodając, iż dla klientów centrów danych Nvidia liczy się to, w jaki sposób mogą zapewnić najwyższą wydajność na wat, co przekłada się bezpośrednio na najwyższe przychody.



Source link

Idź do oryginalnego materiału