Modele językowe bez halucynacji? Być może – dzięki Google

homodigital.pl 8 miesięcy temu

Czy możliwe są modele językowe bez halucynacji, to znaczy takie, które odpowiadają „nie wiem”, jeżeli nie znają odpowiedzi, zamiast, jak obecnie, serwować nam zmyślone fakty? Taką nadzieję mają badacze Google, którzy opracowali system ASPIRE. Celem tego systemu jest właśnie nauczenie LLM-ów trudnej, również dla wielu ludzi, sztuki mówienia „nie wiem”.

Halucynacje, czyli nierozwiązany problem LLM-ów

Czym są halucynacje dużych modeli językowych (LLM)? Halucynacje to nieprawidłowe odpowiedzi modeli na zadane zapytania, zwykle udzielane we w pełni autorytatywnym tonie, tak jakby model był w pełni przekonany co do prawdziwości odpowiedzi.

A skąd się biorą? Nieco upraszczając, przy wytwarzaniu swojej odpowiedzi model wybiera opcje spośród wielu możliwości, opierając się na rachunku prawdopodobieństwa. Najlepiej pasująca odpowiedź (a więc prawdopodobnie jedna z najlepszych) będzie wybierana najczęściej i model poda nam prawidłową odpowiedź.

Niestety, gdy model nie zna odpowiedzi, to zamiast powiedzieć, iż nie wie, wybiera przypadkowo ze sporej puli nieprawidłowych odpowiedzi, często luźno związanych z zadanym pytaniem – i to są właśnie halucynacje.

Podam przykład: jakiś czas temu zapytałem ChatGPT i Barda o pewną niewielką miejscowość na Podlasiu. ChatGPT odpowiedział mi, iż to miejscowość zmyślona (co nie jest prawdą), zaś Bard podał o niej kilka z grubsza prawidłowych danych, by dodać następnie, iż jest położona nad Rospudą (odległą o około 70 km w kierunku północnym), na Równinie Bielskiej (też odległej około 70 km, tylko w kierunku południowym).

Zarówno Rospuda jak i Równina Bielska są również położone na Podlasiu. To typowa halucynacja – związki z prawidłową odpowiedzią są, ale luźne. Niestety, halucynacje powodują, iż pomimo wielu zalet, duże modele językowe są rzadko używane w zastosowaniach krytycznych, gdzie koszt pomyłki modelu byłby wysoki (na przykład tych związanych ze zdrowiem).

Modele językowe bez halucynacji? Modelu, sam zbadaj swoją odpowiedź

By rozwiązać ten problem, naukowcy Google stworzyli specjalną metodę dostrajania modelu do zadań związanych z sesjami pytanie-odpowiedź, którą nazwali ASPIRE. Metoda ta trenuje model, by oceniał, czy dana odpowiedź jest prawidłowa i nadawał odpowiedzi odpowiedni ranking wiarygodności.

Przy czym metoda ta nie wymaga dostrajania całego modelu (który może mieć wiele miliardów parametrów), a tylko pewnej grupy dodanych parametrów, co wymaga o wiele mniej rozbudowanej infrastruktury. Następnie model uczony jest odróżniać odpowiedzi prawidłowe od nieprawidłowych – niezależnie od tego, jakiej sam udzielił.

Badacze z Google odnotowują, iż ich osiągnięcie może być szczególnie ważne dla mniejszych modeli językowych, których jakość odpowiedzi wzrosła w szczególnie imponujący sposób dzięki ASPIRE.

Niestety, nie wiemy, czy tę metodę da się zastosować do modeli, z których najczęściej korzystamy, a więc do tych, które stoją za ChatGPT, Microsoft Copilot czy Google Bard. A które też mają problemy z halucynacjami.

Chciałbyś wypróbować Copilota nie tylko w Windowsach, ale i w Office? Niestety, będziesz musiał/a poczekać.

Źródło grafiki: Sztuczna inteligencja, model Dall-E 3

Idź do oryginalnego materiału