
W końcu mamy nieco więcej jasności co do przyszłości modeli od OpenAI. Najpierw ujrzymy model Orion (będzie nazwany GPT-4.5), a potem nastąpi integracja modeli GPT i o3. Jak to będzie wyglądać? Wyjaśniam.
Szef OpenAI, Sam Altman, nigdy nie był szczególnie otwarty jeżeli chodzi o prezentację planów na przyszłość swojej spółki. Wolał zagadkowe sugestie podatne na różne interpretacje. Tym razem jednak postanowił uderzyć się w pierś, pisząc, iż OpenAI chce „lepiej komunikować planowaną ścieżkę rozwoju i znacznie uprościć swoją ofertę produktową”. Oto co nas czeka.
Orion już na dniach?
Długo wyczekiwany model Orion, sukcesor GPT-4 i GPT-4o, ma pojawić się za kilka tygodni. Być może jeszcze w lutym — co zgadzałoby się z jedną z zagadkowych wypowiedzi Altmana jeszcze z września zeszłego roku o tak zwanych konstelacjach zimowych — Orion jest jedną z nich.
Czego powinniśmy się spodziewać po Orionie, który będzie oficjalnie się nazywał GPT-4.5? Prawdopodobnie pewnej poprawy jakości odpowiedzi modelu. Ale bez rewolucji, o czym świadczyć może zarówno numeracja, bo nowy model nie będzie nazwany GPT-5, jak i wieści dochodzące od praktycznie wszystkich firm tworzących największe i najlepsze modele (tzw. frontier models) — postępy w modelach opartych na architekturze GPT były mniejsze, niż się spodziewano. Niedawno opublikowane Gemini 2.0 nie wzbudziło przesadnych emocji, Claude Opus wciąż nie doczekał się wersji 3.4, a za najlepszy model nierozumujący wciąż uważany jest średniej wielkości model Claude Sonnet 3.5 — udostępniony w czerwcu zeszłego roku.
Jak dodaje Altman, Orion będzie ostatnim modelem OpenAI, który nie będzie miał wbudowanego mechanizmu „łańcucha myśli” (chain-of-thought).
Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!
Integracja modeli GPT i o3 da nam GPT-5. Za kilka miesięcy
Po opublikowaniu GPT-4.5 OpenAI ma się skupić na GPT-5, czyli na integracji modeli GPT z „rozumującymi” modelami serii o, w szczególności obecnie najnowszego modelu o3, tak by stworzyć systemy, „które potrafią korzystać ze wszystkich naszych narzędzi, wiedzą, kiedy myśleć długo, a kiedy nie, i są ogólnie przydatne do bardzo szerokiego zakresu zadań” — napisał Altman.
Jak to będzie w praktyce wyglądać? Prawdopodobnie będzie to hybrydowy model, mający wbudowany mechanizm oceniający, czy dane zapytanie (prompt) użytkownika wymaga skorzystania z rozumowania, czy wystarczy prosta odpowiedź od „tradycyjnej” części modelu. Pozwoli to zachować szybkość dla prostych zapytań — na przykład dotyczących faktów — przy jednoczesnym zagwarantowaniu jakości odpowiedzi dla zapytań wymagających od modelu przemyślenia odpowiedzi.
Wprowadzenie GPT-5, co według Altmana ma nastąpić za kilka miesięcy, ma fundamentalnie uprościć korzystanie zarówno z ChatGPT jak i z programistycznego dostępu do modeli przez tak zwane API. Zniknie konieczność (a choćby możliwość) wybierania, z którego modelu chcemy skorzystać — model sam będzie decydować o tym, co jest nam potrzebne.
GPT-5, a więc również możliwości „rozumujące” będą dostępne dla wszystkich użytkowników ChatGPT, również tych korzystających z dostępu darmowego. Jak pisze Altman, „darmowy poziom ChatGPT umożliwi nieograniczony dostęp do czatu z GPT-5 w standardowym ustawieniu inteligencji (!), z zastrzeżeniem progów nadużyć”.
Użytkownicy płatnych planów będą mogli korzystać z „wyższych poziomów inteligencji”. Jak dowiedzieliśmy się z testów François Cholleta, o3 może operować na kilku poziomach rozumowania — im wyższy poziom, tym dłużej model „myśli” nad odpowiedzią. Przy czym testy Cholleta pokazały, iż najwyższe poziomy rozumowania są niezwykle kosztowne obliczeniowo. Nic więc dziwnego, iż będą dostępne tylko dla użytkowników subskrypcji Pro, kosztującej w tej chwili 200 dolarów na miesiąc.
Źródło zdjęcia: Dario Brönnimann/Unsplash