Startup byłego CEO Niebieskich postawił na rozwiązanie z Państwa Środka. Powodem jest nie tylko wysoka jakość chińskiego LLM, ale też chęć zburzenia monopolu OpenAI.
Pat Gelsinger pożegnał się z Intelem w grudniu 2024 roku, a jego miejsce zajęli Michelle Johnston Holthaus i David Zinsner. Nie oznacza to jednak, iż chce on teraz oddać się słodkiemu nieróbstwu na emeryturze. Wręcz przeciwnie, rozpoczął on pracę nad dość niecodziennym projektem nazwanym Gloo. Według doniesień, ma on być platformą komunikacyjną dla… Kościołów. W obecnych czasach jednak zwykły komunikator to za mało, więc ma on być wspierany przez własną sztuczną inteligencję, roboczo nazwaną Kallm.
Według Pata Gelsingera, rozwój DeepSeek przysłuży się całej branży
Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:
1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…
Aby jednak wytrenować swoje AI, Gelsinger musiał zdecydować się na jeden z dostępnych na rynku modeli LLM. Oczywiście pierwotnie brano pod uwagę głównie OpenAI o1, ale po ostatnich wydarzeniach wybór padł na chiński DeepSeek R1. Dlaczego? Otwartoźródłowość, łatwość implementacji oraz chęć podkopania nieco pozycji zespołu Sama Altmana są głównymi powodami. Ale nie bez znaczenia są również dużo niższe koszty.
Spowodowane jest to m.in. faktem, iż chociaż Chińczycy korzystają z układów Zielonych w postaci NVIDIA H800, to podobno znakomitą większość ich sprzętu stanowią akceleratory AI rodzimej produkcji – Huawei Ascend AI. Drugim czynnikiem wpływającym na niższą cenę ma być nielegalne wykorzystanie danych z ChatGPT (tzw. metoda destylacji), jednak ta kwestia jest na tę chwilę badana przez Microsoft i OpenAI.
I chociaż Sam Altman twierdził, iż stworzenie LLM za kwotę mniejszą niż 10 milionów dolarów jest niemożliwe, to zarówno sami Chińczycy, jak i Gelsinger podważają jego słowa. Szkolenie DeepSeek miało pochłonąć według jego twórców 5,6 miliona dolarów, a były CEO Intela zdaje się w pełni wierzyć w te zapewnienia. „Nigdy nie będzie pełnej przejrzystości biorąc pod uwagę, iż większość pracy wykonano w Chinach. Wszystkie dowody wskazują jednak, iż szkolenie jest od 10 do 50 razy tańsze niż o1” stwierdził.