Miał być przełom, jest rozczarowanie. Premiera GPT-5 pokazuje potężny problem AI

konto.spidersweb.pl 4 godzin temu

GPT-5 miał być przełomem w sztucznej inteligencji, ale zamiast rewolucji użytkownicy zobaczyli poprawki – i pierwsze oznaki, iż tempo rozwoju LLM zwalnia.

GPT-5 był jedną z najbardziej oczekiwanych premier technologicznych ostatnich miesięcy. Ekscytację podsycało także samo OpenAI, które zapowiadało go jako istotny krok w stronę AGI, czyli sztucznej inteligencji przewyższającej człowieka. Rzeczywistość okazała się jednak mniej spektakularna. Model jest szybki i w wielu zadaniach wypada zadowalająco, ale nie przyniósł przełomu na miarę przejścia z GPT-3 do GPT-4.

GPT-5 nie zachwycił? To dlatego, iż giganci już parę miesięcy temu zjedli zasoby internetu

Wystarczyły godziny od premiery, by użytkownicy zaczęli wykazywać niezadowolenie modelem, który niekiedy popełniał całkiem głupie błędy i nie generował odpowiedzi jakościowo odbiegających od dotychczasowych modeli z rodziny GPT-4o. Czarę goryczy przelał jednak jego styl wypowiedzi, który sprawił, iż część osób zdecydowała się na anulowanie subskrypcji ChatGPT Plus.

Ponadto w testach porównawczych GPT-5 nie odskoczył wyraźnie od konkurencji, a niektórzy eksperci określili go wręcz jako rozczarowanie.

„Dla GPT-5 [….] ludzie oczekiwali czegoś zupełnie nowego. Tymczasem tego po prostu nie było”

– stwierdził Thomas Wolf z Hugging Face w rozmowie z Financial Times.

Jak zauważa Financial Times, po latach dynamicznego rozwoju widać pierwsze oznaki, iż wzrost możliwości modeli językowych zaczyna zwalniać – a premiera GPT-5 to sztandarowy przykład dojścia AI do ściany. Dotychczasowy przepis na sukces – więcej danych i większa moc obliczeniowa – powoli wyczerpuje się. Internet został już w dużej mierze „wysuszony” z wartościowych danych treningowych, a trenowanie modeli pochłania ogromne ilości energii i wymaga setek tysięcy chipów Nvidii.

Od kilku lat strategie największych graczy – OpenAI, Anthropic, Google czy xAI – sprowadzały się do prostego równania: im większe modele i im więcej danych, tym lepsze wyniki. To podejście znane jako „scaling laws” faktycznie przyniosło imponujące postępy, ale po latach stosowania powoli przestaje przynosić pożądane, dotychczasowe rezultaty. Gigantom technologicznym brakuje nowych źródeł treści, a kolejne generacje modeli pochłaniają nie tylko więcej mocy obliczeniowej, ale i coraz większe zasoby finansowe. Firmy próbują zapełnić tę lukę poprzez umowy licencyjne z wydawcami i poszukiwanie zamkniętych, specjalistycznych zbiorów danych. ale to prawdopodobnie nie wystarczy, by osiągnąć oczekiwany przez tłumy skok wydajności.

Nowe modele już nie będą przełomami technologicznymi. Giganci technologiczni potrzebują nowej strategii

Podczas zeszłotygodniowej kolacji z dziennikarzami w siedzibie OpenAI w San Francisco, Sam Altman przyznał, iż choć modele bazowe wciąż się poprawiają, same chatboty takie jak ChatGPT „nie będą już dużo lepsze”. To wyznanie stanowi mocny sygnał, iż dotychczasowy paradygmat rozwoju – powiększanie modeli opartych na architekturze transformer – napotyka na ograniczenia.

Nie brakuje jednak głosów, iż stagnacja nie oznacza końca innowacji. Yann LeCun z Meta podkreśla, iż głównym problemem Doliny Krzemowej jest nadmierne skupienie się na rozwoju dużych modeli językowych i architektury transformer. Zdaniem LeCuna to samo w sobie wpływa ograniczająco na rozwój AI, gdyż odbywa się kosztem innych podejść.

„Wchodzimy w fazę malejących zwrotów z czystych modeli językowych. Ale nie oznacza to, iż AI doszła do ściany – potrzebujemy nowych strategii, np. systemów uczących się świata poprzez obraz czy wideo”

– powiedział LeCun w wypowiedzi dla „FT”.

Rozwijane w tej chwili tzw. „world models”, czyli modele AI uczące się na różnego rodzaju danych nie-tekstowych opisujących nasz świat, mają w przyszłości umożliwić planowanie, rozumowanie i trwałą pamięć – a więc funkcje przydatne w robotyce, autonomicznych pojazdach czy bardziej zaawansowanych asystentach AI. Podobnie twierdzi Joelle Pineau z Cohere, która podkreśla, iż samo zwiększanie mocy obliczeniowej i ilości danych nie wystarczy, by zwiększyć zdolności AI.

Dla branży jest to wyraźny sygnał zmiany priorytetów. Jak opisuje Financial Times, w Dolinie Krzemowej coraz mniej chodzi o nieustanny wyścig na coraz większe i droższe modele, a coraz bardziej o to, jak sztuczna inteligencja może realnie wspierać codzienne zadania i generować wartość w produktach oraz usługach. Coraz częściej wskazuje się, iż przyszłość należy do praktycznych wdrożeń – od asystentów biurowych, przez obsługę klienta, po wyspecjalizowane narzędzia dla nauki i przemysłu. Zespół z Uniwersytetu Princeton ocenił GPT-5 jako model „średniej półki”: nie błyszczy we wszystkich kategoriach, ale działa szybko, stabilnie i jest „opłacalny w eksploatacji”. Według badaczy takie adekwatności w kolejnych modelach mogą sprawić, iż rynek zacznie bardziej koncentrować się na aplikacjach i konkretnych zastosowaniach, niż na wielkich, abstrakcyjnych wizjach AGI i prześciganiu się w testach porównawczych.

Więcej na temat sztucznej inteligencji (AI):

Zdjęcie główne: imago / Shutterstock

Idź do oryginalnego materiału