Amerykańskie laboratorium badawcze specjalizujące się w dziedzinie sztucznej inteligencji zapowiedziało zwiększenie możliwości swojego flagowego produktu, ChatGPT, do rozwiązywania problemów matematycznych. Przedsiębiorstwo dąży do zmniejszenia liczby przypadków tzw. halucynacji sztucznej inteligencji. Chodzi o sytuacje, w których narzędzia AI nie znając odpowiedzi na zadane im pytanie, po prostu zmyślają.
Wspomniane halucynacje odnoszą się do przypadków, w których systemy sztucznej inteligencji generują niepoprawne wyniki, wprowadzające w błąd lub niepoparte rzeczywistymi danymi. Mogą się one przejawiać w różnych formach, takich jak generowanie fałszywych informacji, wymyślanie nieistniejących wydarzeń lub osób, a także dostarczanie mało precyzyjnych szczegółów na określone tematy.
ChatGPT i nieprawdziwe treści
Wprowadzenie najnowszej wersji systemu ChatGPT, oznaczonej numerem 4, miało miejsce w marcu br. Jednak problem, jakim jest generowanie fałszywych informacji przez chatboty, jest znany programistom od dawna. Jak się okazuje, połączenie faktów i fikcji jest szczególnie niebezpieczne w przypadku porad medycznych lub ustalania faktów dotyczących kluczowych wydarzeń historycznych.
To tylko jeden z powodów, dla których zarząd OpenAI zdecydował się na przeprowadzenie badań, które miały na celu zbadanie dwóch rodzajów informacji zwrotnych. Pierwsza z nich, określana mianem „nadzoru nad wynikiem” obejmuje informacje zwrotne oparte na wyniku końcowym. Z kolei „nadzór nad procesem” pozwala na uzyskanie danych wejściowych dla wszystkich kroku w łańcuchu myśli. Badacze OpenAI ocenili te modele dzięki problemów matematycznych, tworząc wiele rozwiązań i wybierając spośród nich te najwyżej ocenione – zgodnie z każdym modelem informacji zwrotnej.
Z przeprowadzonych przez naukowców analiz wynika, dużo lepsze wyniki przynosi nadzór nad procesem. Dzieje się tak, ponieważ skłania on model do przestrzegania procesu zatwierdzonego przez człowieka. „Nadzór nad procesem może zaoferować korzystne połączenie wydajności i dostosowania w porównaniu z nadzorem nad wynikiem” – napisano w raporcie.
Badania nad AI trwają
Okazało się również, iż implikacje nadzoru procesu wykraczają daleko poza matematykę. Przedstawiciele OpenAI wyrazili już gotowość prowadzenia dalszych badań w tej kwestii. Chcąc zachęcić inne podmioty do podobnej aktywności firma publicznie opublikowała kompletny zestaw danych dotyczących nadzoru procesu, zachęcając naukowców do prowadzenia własnych analiz.
Warto przypomnieć, iż w przeciwieństwie do prostego asystenta głosowego, takiego jak Siri lub Google Assistant, ChatGPT jest zbudowany na tzw. LLM (Large Language Model). Jest to system zbudowany w opraciu o sieci neuronowe, które są szkolone na ogromnych ilościach informacji w celu głębokiego uczenia się – co oznacza, iż generują całkowicie nowe odpowiedzi. Co istotne, nie są one budowane w konkretnym celu, jak chatboty z przeszłości – i są o wiele mądrzejsze.