OpenAI zaprezentowało światu nowe modele rozumowania. Statystyki udostępnione przez amerykańskiego giganta nie pozostawiają złudzeń: o3 i o4 mini to naprawdę potężne narzędzia. Są one znacznie wydajniejsze od swoich poprzedników, a przy okazji dysponują umiejętnościami dotychczas pozostającymi w strefie marzeń. Chodzi oczywiście o branie pod uwagę materiałów graficznych, co bez wątpienia pokochają użytkownicy końcowi.
o3 i o4 mini – co potrafią nowe modele od OpenAI?
Zaledwie kilka dni minęło od oficjalnej prezentacji modelu GPT-4.1, który w niedalekiej przyszłości powinien trafić do większości konsumentów. Możemy spodziewać się przede wszystkim zwiększonej szybkości, jak i bardziej precyzyjnych odpowiedzi biorących pod uwagę pokaźniejszy zbiór elementów. Do tego wszystkiego dochodzi kilkukrotnie pojemniejsze okno kontekstowe.
- Sprawdź także: GPT-4.1 oficjalnie. Nowy model jest szybszy i znacznie mądrzejszy
Teraz przyszedł czas na odświeżenie biblioteki modeli rozumowania przydatnych podczas nieco bardziej złożonych zadań. Jak wynika z ogłoszenia producenta, o3 jest rzekomo najpotężniejszym modelem rozumowania w historii. Nie można też przejść obojętnie obok o4-mini charakteryzującego się „niezwykłą wydajnością”, a przy okazji przystępną ceną oraz niewielkim rozmiarem. Chyba najbardziej fascynującą rzeczą jest nowość wspomniana na samym wstępie.
ChatGPT (Android) – pobierz aplikację z naszej bazy danych
Zapowiedziane modele są w stanie brać pod uwagę materiały graficzne podczas całego procesu myślowego. To bardzo ważna wiadomość dla osób wykorzystujących w swojej pracy szkice czy inne wizualne treści. Sztuczna inteligencja zacznie się nimi posiłkować, by wygenerować jeszcze bardziej satysfakcjonującą odpowiedź. Co ciekawe, o3 i o4-mini są w stanie manipulować obrazami. Chodzi przede wszystkim o powiększanie czy obracanie – dzięki temu dojdzie do głębszego zrozumienia przesłanej zawartości.

Kolejne modele, coraz więcej zaawansowanych możliwości
Jeśli zaś chodzi o inne usprawnienia, to OpenAI zwraca uwagę na niemalże pełną integrację z ChatGPT i oferowanymi przez asystenta narzędziami. Nowe modele rozumowania będą zatem na bieżąco przeglądać strony internetowe, a przy okazji uzyskają zdolność generowania obrazów. Do tego dochodzi znajomość języka programowania Python czy umiejętność interpretacji różnego rodzaju plików. Sami przyznacie, iż brzmi to naprawdę imponująco.

Warto jednak mieć na uwadze, iż o3 i o4-mini nie będą od razu dostępne dla wszystkich zainteresowanych osób. Początkowo mogą z aktualizacji skorzystać subskrybenci pakietów Plus, Pro oraz Team. Tym samym dojdzie też do wycofania wariantów o1 oraz o3-mini, co raczej nie należy do przesadnych zaskoczeń.
- Przeczytaj również: ChatGPT bez dziur w głowie. Zapamięta wszystko, co mu powiesz
Teraz pozostaje cierpliwie czekać na debiut nowości u osób nieopłacających subskrypcji. prawdopodobnie do tego czasu wprowadzone zostaną kolejne aktualizacje.
Źródło: OpenAI / Zdjęcie otwierające: OpenAI, unsplash.com (@joelholland)