Współzałożyciel i były główny naukowiec OpenAI, Ilya Sutskever, trafił na pierwsze strony gazet w tym roku po jego odejściu założyć własne laboratorium AI o nazwie Bezpieczna Superinteligencja Inc. Od czasu swojego wyjazdu unikał blasku reflektorów, ale w piątek rzadko pojawiał się publicznie w Vancouver na konferencji na temat neuronowych systemów przetwarzania informacji (NeurIPS).
„Przygotowanie do treningu, jakie znamy, niewątpliwie się zakończy” – powiedział na scenie Suckewer. Odnosi się to do pierwszej fazy rozwoju modelu sztucznej inteligencji, kiedy duży model językowy uczy się wzorców z ogromnych ilości nieoznaczonych danych — zwykle tekstu z Internetu, książek i innych źródeł.
„Osiągnęliśmy szczytowe dane i nie będzie ich więcej”.
Podczas swojego wykładu w sprawie NeurIPS Sutskever powiedział, iż choć wierzy, iż istniejące dane mogą w dalszym ciągu posunąć naprzód rozwój sztucznej inteligencji, branża czerpie nowe dane do celów szkoleniowych. Ta dynamika, powiedział, ostatecznie wymusi odejście od dzisiejszego sposobu szkolenia modeli. Porównał tę sytuację do sytuacji w przypadku paliw kopalnych: tak jak ropa naftowa jest zasobem ograniczonym, tak Internet zawiera skończoną ilość treści generowanych przez człowieka.
„Osiągnęliśmy szczytowe dane i już ich nie będzie” – twierdzi Sutskever. „Musimy sobie poradzić z danymi, które mamy. Internet jest tylko jeden.”
Ilya Sutskever nazywa dane „paliwem kopalnym” sztucznej inteligencji.Ilja Suckew/NeurIPS
Przewidywał, iż modele nowej generacji „będą agentyczne w rzeczywisty sposób”. Agenci stali się prawdziwym modnym hasłem w dziedzinie AI. Chociaż Suckever nie zdefiniował ich w swoim wystąpieniu, powszechnie uważa się je za autonomiczny system sztucznej inteligencji, który samodzielnie wykonuje zadania, podejmuje decyzje i wchodzi w interakcję z oprogramowaniem.
Powiedział, iż przyszłe systemy będą nie tylko „agentyczne”, ale także będą w stanie rozumować. W przeciwieństwie do dzisiejszej sztucznej inteligencji, która głównie dopasowuje wzorce w oparciu o to, co model widział wcześniej, przyszłe systemy sztucznej inteligencji będą w stanie opracowywać wszystko krok po kroku w sposób bardziej porównywalny z myśleniem.
Pracujesz w OpenAI? Chętnie porozmawiam. Możesz bezpiecznie się ze mną skontaktować pod adresem Signal @kylie.01 lub pocztą elektroniczną pod adresem kylie@theverge.com.
Im bardziej system rozumuje, „tym bardziej staje się nieprzewidywalny” – twierdzi Suckever. Porównał nieprzewidywalność „prawdziwie rozumujących systemów” do tego, jak zaawansowana sztuczna inteligencja grająca w szachy „jest nieprzewidywalna dla najlepszych szachistów na świecie”.
„Zrozumieją wszystko na podstawie ograniczonych danych” – powiedział. „Nie będą się mylić”.
Na scenie dokonał porównania skalowania systemów sztucznej inteligencji z biologią ewolucyjną, cytując badania pokazujące związek między mózgiem a masą ciała u różnych gatunków. Zauważył, iż podczas gdy większość ssaków stosuje jeden wzorzec skalowania, hominidy (przodkowie człowieka) wykazują wyraźnie odmienne nachylenie stosunku masy mózgu do masy ciała w skali logarytmicznej.
Zasugerował, iż tak jak ewolucja znalazła nowy wzorzec skalowania mózgów hominidów, sztuczna inteligencja może podobnie odkryć nowe podejścia do skalowania wykraczające poza to, co działa w tej chwili przed treningiem.
Ilya Sutskever porównuje skalowanie systemów AI z biologią ewolucyjną.Ilja Suckew/NeurIPS
Po zakończeniu przemówienia Sutskever jeden ze słuchaczy zapytał go, w jaki sposób badacze mogą stworzyć odpowiednie mechanizmy motywacyjne dla ludzkości do tworzenia sztucznej inteligencji w sposób zapewniający jej „wolności, które mamy jako homosapiens”.
„Mam wrażenie, iż w pewnym sensie są to pytania, nad którymi ludzie powinni częściej się zastanawiać” – odpowiedział Sutskever. Przerwał na chwilę, po czym stwierdził, iż „nie czuje się pewnie, odpowiadając na tego typu pytania”, ponieważ wymagałoby to „odgórnej struktury rządowej”. Członek widowni zasugerował kryptowalutę, co wywołało chichot wśród innych osób na sali.
„Nie czuję, iż jestem odpowiednią osobą do komentowania kryptowalut, ale istnieje szansa, iż to, co wy [are] opisanie nastąpi” – powiedział Sutskever. „Wiesz, w pewnym sensie nie jest to zły wynik końcowy, jeżeli masz sztuczną inteligencję, a one chcą tylko współistnieć z nami i po prostu mieć prawa. Może wszystko będzie dobrze… Myślę, iż rzeczy są niesamowicie nieprzewidywalne. Waham się, czy to komentować, ale zachęcam do spekulacji.