Nowy ChatGPT uczy się od Muska i powiela kłamstwa. To ja podziękuję

konto.spidersweb.pl 7 godzin temu

OpenAI, wypuszczając model 5.2, reklamowało go jako swoje „najbardziej zaawansowane” dzieło. Testerzy odkryli jednak, iż część jego odpowiedzi opiera się na dyskusyjnych źródłach. W trudnych tematach riposty stały się bardziej stronnicze, a twórcy modelu najwyraźniej nie wstydzą się korzystania z artykułów generowanych przez inne systemy AI.

Najnowszy model ChatGPT sięga po treści m.in. z Grokipedii Elona Muska — kontrowersyjnej, częściowo generowanej przez AI encyklopedii. Podważa to wiarygodność odpowiedzi i wywołuje alarmy o dezinformacji.

Grokipedia to „encyklopedia” powiązana z Elonem Muskiem i jego firmą xAI. To nie jest drobny szczegół: model OpenAI cytuje ją właśnie przy najbardziej kontrowersyjnych tematach, w tym wrażliwych kwestiach historycznych i politycznych.

Grokipedia powstała jako alternatywa dla Wikipedii, bo – jak twierdził jej patron – oryginał jest „stronniczy”. Niestety gwałtownie zyskała reputację źródła pełnego toksycznych treści: fragmenty artykułów skopiowanych z Wikipedii mieszają się tam z twierdzeniami o skrajnie wątpliwej merytoryce. Ba, na porządku dziennym zdarzają się niemoralne i obraźliwe ataki na konkretne grupy społeczne. Innymi słowy, o ile szukacie rzetelnych faktów, Grokipedia nie jest do tego najlepszym miejscem.

ChatGPT 5.2 odwołuje się do Grokpedii przy odpowiedziach

Problem polega na tym, iż model AI korzystający z niepewnych źródeł, może powielać i wzmacniać błędy. Gdy ChatGPT odwołuje się do Grokipedii w sprawach takich jak powiązania firm z rządami czy interpretacje historyczne, użytkownik otrzymuje odpowiedź podaną z pewnością siebie, której niekoniecznie powinien ufać. Dodatkowo problem nie znika, kiedy model „mówi’ prawidłowo w większości przypadków – wystarczy kilka fałszywych lub tendencyjnych wpisów, by wyrządzić szkody w dyskursie publicznym.

Dziennikarze i urzędy ds. ochrony prywatności alarmują: to nie tylko wizerunkowa wpadka, ale kwestia zaufania do systemów, które ludzie traktują jak autorytety. OpenAI może twierdzić, iż model uczy się z wielu źródeł, ale kiedy wśród nich pojawiają się treści generowane przez AI o wątpliwej jakości, granica między faktem a halucynacją staje się mglista.

Więcej o sztucznej inteligencji przeczytasz na łamach Spider’sWeb:

OpenAI może tylko sobie „pogratulować”. Stworzyło narzędzie, które błyskawicznie potrafi zebrać wiedzę z całego internetu, również jego mętnych zakamarków. Sprawia to, iż przemycanie do chatbota kontrowersyjnych, niezweryfikowane „faktów” jest na porządku dziennym.

Idź do oryginalnego materiału