OpenAI wypuszcza tańszy i inteligentniejszy model

cyberfeed.pl 2 miesięcy temu


OpenAI wypuszcza lżejszy, tańszy model do majsterkowania dla deweloperów, zwany GPT-4o Mini. Kosztuje znacznie mniej niż modele pełnowymiarowe i mówi się, iż jest bardziej wydajny niż GPT-3.5.

Tworzenie aplikacji przy użyciu modeli OpenAI może wiązać się z ogromnymi kosztami. Deweloperzy, którzy nie mają środków na majstrowanie przy tym, mogą zostać całkowicie wykluczeni i mogą zdecydować się na tańsze modele, takie jak Google Gemini 1.5 Flash lub Anthropic Claude 3 Haiku. Teraz OpenAI wkracza do gry w lekkie modele.

„Myślę, iż GPT-4o Mini naprawdę realizuje misję OpenAI, polegającą na uczynieniu AI bardziej dostępną dla ludzi. jeżeli chcemy, aby AI przyniosło korzyści każdemu zakątkowi świata, każdej branży, każdej aplikacji, musimy sprawić, aby AI było znacznie bardziej przystępne cenowo” – powiedział Olivier Godement, który kieruje produktem platformy API The Verge (pol. skraj).

Od dziś użytkownicy ChatGPT w planach Free, Plus i Team mogą używać GPT-4o Mini zamiast GPT-3.5 Turbo, a użytkownicy Enterprise otrzymają dostęp w przyszłym tygodniu. Oznacza to, iż GPT-3.5 nie będzie już opcją dla użytkowników ChatGPT, ale przez cały czas będzie dostępny dla deweloperów za pośrednictwem API, jeżeli nie będą chcieli przechodzić na GPT-4o Mini. Godement powiedział, iż GPT-3.5 zostanie wycofane z API w pewnym momencie — nie są tylko pewni, kiedy.

„Myślę, iż będzie to bardzo popularne” – powiedział Godement

Nowy, lekki model będzie również obsługiwał tekst i obraz w API, a firma twierdzi, iż niedługo będzie obsługiwał wszystkie multimodalne wejścia i wyjścia, takie jak wideo i audio. Dzięki wszystkim tym możliwościom może to wyglądać jak bardziej wydajni wirtualni asystenci, którzy potrafią zrozumieć Twój plan podróży i tworzyć sugestie. Jednak model ten jest przeznaczony do prostych zadań, więc nikt nie buduje Siri za grosze.

Ten nowy model uzyskał wynik 82 procent w teście Measuring Massive Multitask Language Understanding (MMLU), egzaminie testowym składającym się z około 16 000 pytań wielokrotnego wyboru z 57 przedmiotów akademickich. Kiedy MMLU został wprowadzony po raz pierwszy w 2020 r., większość modeli radziła sobie z nim dość słabo, co było celem, ponieważ modele stały się zbyt zaawansowane dla poprzednich egzaminów testowych. GPT-3.5 uzyskał 70 procent w tym teście, GPT-4o uzyskał 88,7 procent, a Google twierdzi, iż Gemini Ultra mieć najwyższy wynik w historii 90 procent. Dla porównania, konkurencyjne modele Klaudiusz 3 Haiku I Gemini 1.5 Flash uzyskały odpowiednio 75,2 proc. i 78,9 proc.

Warto zauważyć, iż badacze są ostrożni w stosunku do testów porównawczych, takich jak MMLU, ponieważ sposób ich przeprowadzania różni się nieznacznie w zależności od firmy. To sprawia, iż ​​trudno jest porównywać wyniki różnych modeli, ponieważ New York Times zgłoszono. Istnieje również problem z tym, iż AI potencjalnie ma te odpowiedzi w swoim zestawie danych, co zasadniczo pozwala jej oszukiwać, a zwykle w procesie nie biorą udziału żadni zewnętrzni oceniający.

Dla deweloperów, którzy są spragnieni tworzenia tanich aplikacji AI, uruchomienie GPT-4o Mini daje im kolejne narzędzie do dodania do ich inwentarza. OpenAI pozwoliło startupowi technologii finansowych Ramp przetestować model, używając GPT-4o Mini do zbudowania narzędzia, które wyodrębnia dane o wydatkach z paragonów. Tak więc zamiast mozolnie przedzierać się przez pola tekstowe, użytkownik może przesłać zdjęcie swojego paragonu, a model posortuje wszystko za niego. Superhuman, klient poczty e-mail, również przetestował GPT-4o Mini i użył go do stworzenia funkcji automatycznych sugestii dla odpowiedzi e-mail.

Celem jest zapewnienie czegoś lekkiego i niedrogiego dla deweloperów, aby mogli tworzyć wszystkie aplikacje i narzędzia, na które nie mogli sobie pozwolić przy użyciu większego, droższego modelu, takiego jak GPT-4. Wielu deweloperów zwróciłoby się ku Claude 3 Haiku lub Gemini 1.5 Flash, zanim zapłaciłoby oszałamiające koszty obliczeniowe wymagane do uruchomienia jednego z najbardziej solidnych modeli.

Więc dlaczego OpenAI zajęło tyle czasu? Godement powiedział, iż to było „czyste priorytetyzowanie”, ponieważ firma skupiała się na tworzeniu większych i lepszych modeli, takich jak GPT-4, co wymagało wielu „wysiłków ludzkich i obliczeniowych”. Z czasem OpenAI zauważyło trend wśród deweloperów chętnych do korzystania z mniejszych modeli, więc firma zdecydowała, iż ​​nadszedł czas, aby zainwestować swoje zasoby w budowę GPT-4o Mini.

„Myślę, iż będzie bardzo popularny” — powiedział Godement. „Zarówno wśród istniejących aplikacji, które wykorzystują całą sztuczną inteligencję w OpenAI, jak i wśród wielu aplikacji, które zostały wcześniej wydane w ramach cennika”.



Source link

Idź do oryginalnego materiału