Rewolucja zjada własne dzieci. ChatGPT korzysta z treści od innych AI

geekpedia.pl 9 godzin temu

Powoli dochodzi do punktu krytycznego, na który uwagę zwracało wielu ekspertów już wiele miesięcy temu. Kończą się po prostu materiały wygenerowane przez ludzi.

Wygląda na to, iż najnowszy model sztucznej inteligencji od OpenAI, czyli GPT-5.2, w niektórych przypadkach sięga po informacje pochodzące z Grokpedii. Mówimy tutaj o alternatywie dla Wikipedii od Elona Muska, która również napędzana jest przez AI. Choć dotyczy to głównie mniej popularnych tematów, takich jak zagadnienia związane z irańską polityką czy wybrane postacie historyczne, jest to powód do niepokoju.

Problem ten może poskutkować powstaniem pętli AI

Należy pamiętać, iż nie oznacza to, iż ChatGPT był trenowany na danych z tej platformy. Niemniej, eksperci zwracają uwagę, iż cytowanie treści tworzonych przez inne AI niesie realne ryzyko. Głównie dlatego, iż duże modele językowe (LLM) znane są z halucynowania, czyli pozornie wiarygodnych, ale nieprawdziwych informacji. Co gorsza, większość użytkowników regularnie nie weryfikuje załączonych źródeł, nie kwestionując rzetelności informacji.

Dodatkowym problemem jest również specyfika samej Grokipedii – treści nie są tam redagowane ani sprawdzane przez ludzi, a jedynie generowane przez sztuczną inteligencję, z możliwością zgłaszania sugestii. To zwiększa ryzyko powielania błędów i niezweryfikowanych danych. Na dodatek, może skutkować to powstaniem rekurencyjnej pętli informacji, w której modele LLM zaczynają cytować nawzajem swoje treści.

Idź do oryginalnego materiału