Oto w jaki sposób OpenAI określi, jak wydajne są jego systemy AI

cyberfeed.pl 2 miesięcy temu


Firma OpenAI stworzyła wewnętrzną skalę, która pozwoli śledzić postęp, jaki jej duże modele językowe czynią w kierunku sztucznej inteligencji ogólnej, czyli sztucznej inteligencji o inteligencji podobnej do ludzkiej – powiedział rzecznik powiedział Bloomberg.

Dzisiejsze chatboty, takie jak ChatGPT, są na poziomie 1. OpenAI twierdzi, iż zbliża się do poziomu 2, definiowanego jako system, który może rozwiązywać podstawowe problemy na poziomie osoby z tytułem doktora. Poziom 3 odnosi się do agentów AI zdolnych do podejmowania działań w imieniu użytkownika. Poziom 4 obejmuje AI, która może tworzyć nowe innowacje. Poziom 5, ostatni krok do osiągnięcia AGI, to AI, która może wykonywać pracę całych organizacji ludzi. OpenAI wcześniej zdefiniowało AGI jako „wysoce autonomiczny system przewyższający ludzi w najbardziej wartościowych ekonomicznie zadaniach”.

Unikalna struktura OpenAI koncentruje się wokół misji osiągnięcia AGI, a sposób, w jaki OpenAI definiuje AGI, jest ważny. Firma stwierdziła, iż ​​„jeśli projekt zorientowany na wartości i świadomy bezpieczeństwa zbliży się do zbudowania AGI” przed OpenAI, zobowiązuje się nie konkurować z projektem i nie porzucać wszystkiego, aby pomóc. Sformułowanie tego w OpenAI czarter jest niejasne, pozostawiając pole do osądu podmiotu nastawionego na zysk (zarządzanego przez organizację non-profit), ale skala, na której OpenAI może testować siebie i swoich konkurentów, mogłaby pomóc w jaśniejszym określeniu, kiedy AGI zostanie osiągnięte.

Mimo wszystko AGI pozostało bardzo daleko: potrzeba miliardów dolarów mocy obliczeniowej, aby osiągnąć AGI, jeżeli w ogóle. Harmonogramy ekspertów, a choćby OpenAI, są bardzo różne. W październiku 2023 r. dyrektor generalny OpenAI Sam Altman powiedział „minęło pięć lat, mniej więcej”, zanim osiągnęliśmy AGI.

Ta nowa skala ocen, choć wciąż w fazie rozwoju, została wprowadzona dzień po OpenAI ogłoszony kooperacja z Los Alamos National Laboratory, której celem jest zbadanie, w jaki sposób zaawansowane modele AI, takie jak GPT-4o, mogą bezpiecznie pomagać w badaniach bionaukowych. Kierownik programu w Los Alamos, odpowiedzialny za portfolio biologii bezpieczeństwa narodowego i najważniejszy w zabezpieczeniu partnerstwa OpenAI, powiedział Skraj iż celem jest przetestowanie możliwości GPT-4o i ustalenie zestawu czynników bezpieczeństwa i innych czynników dla rządu USA. Ostatecznie modele publiczne lub prywatne mogą zostać przetestowane pod kątem tych czynników, aby ocenić ich własne modele.

W maju OpenAI rozwiązał swój zespół ds. bezpieczeństwa po tym, jak lider grupy, współzałożyciel OpenAI Ilya Sutskever, opuścił firmę. Jan Leike, najważniejszy badacz OpenAI, zrezygnował niedługo potem twierdząc w poście, iż „kultura bezpieczeństwa i procesy zeszły na dalszy plan w stosunku do błyszczących produktów” w firmie. Podczas gdy OpenAI zaprzeczało, iż tak było, niektórzy martwią się, co to oznacza, jeżeli firma faktycznie osiągnie AGI.

Firma OpenAI nie podała szczegółów dotyczących sposobu przypisywania modeli do tych wewnętrznych poziomów (i odmówiła Skrajprośba o komentarz). Jednak liderzy firmy zademonstrowali projekt badawczy wykorzystujący model GPT-4 AI podczas spotkania wszystkich pracowników w czwartek i uważają, iż projekt ten prezentuje pewne nowe umiejętności, które wykazują ludzkie rozumowanie, zgodnie z Bloomberg.

Ta skala mogłaby pomóc w zapewnieniu ścisłej definicji postępu, zamiast pozostawiać go interpretacji. Na przykład, dyrektor ds. technicznych OpenAI Mira Murati powiedziała:

iż modele w jej laboratoriach nie są o wiele lepsze od tych, które już ma opinia publiczna. Tymczasem CEO Sam Altman powiedział pod koniec zeszłego roku iż firma niedawno „odsunęła zasłonę niewiedzy”, co oznacza, iż ​​modele są znacznie inteligentniejsze.





Source link

Idź do oryginalnego materiału