Wikipedia mówi „nie” takim tekstom. Czas wrócić do książek

konto.spidersweb.pl 2 godzin temu

Wikipedia wprowadza zakaz tworzenia artykułów przy użyciu AI. Nowe zasady mają ograniczyć błędy i „halucynacje”, które coraz częściej pojawiały się w zasobach internetowej encyklopedii.

Generatywna sztuczna inteligencja okazała się być szalenie przydatna przy pisaniu wszelkiego rodzaju tekstów – od maili w pracy, poprzez posty i komentarze w mediach społecznościowych, a kończąc na opisach produktów w sklepach internetowych. Jednak użycie jej nie przejdzie już na Wikipedii, gdyż społeczność serwisu zdecydowała się wyraźnie ograniczyć rolę modeli językowych w tworzeniu treści.

Wikipedia zakazuje użycia AI do pisania artykułów

Najważniejsza zmiana jest prosta: teksty generowane przez modele AI nie mogą być już wykorzystywane do pisania ani przepisywania haseł. Nowe wytyczne są odpowiedzią na rosnący problem niskiej jakości treści tworzonych przy pomocy narzędzi takich jak ChatGPT, Gemini czy DeepSeek.

Decyzja nie oznacza jednak całkowitego zakazu korzystania z AI. Wikipedia dopuszcza dwa konkretne zastosowania. Po pierwsze, redaktorzy mogą wykorzystywać modele językowe do sugerowania drobnych poprawek stylistycznych we własnych tekstach – pod warunkiem, iż narzędzie nie dodaje żadnych nowych informacji. Po drugie, AI może być używana do tłumaczenia artykułów z innych wersji językowych, ale tylko wtedy, gdy osoba redagująca tekst zna język oryginału na tyle dobrze, by zweryfikować poprawność przekładu.

To właśnie kwestia wiarygodności stoi za zaostrzeniem zasad. Według nowych wytycznych teksty generowane przez modele językowe często naruszają podstawowe reguły Wikipedii – od weryfikowalności po neutralność. Problemem jest nie tylko styl pisania, ale przede wszystkim skłonność modeli do „halucynowania” faktów lub nadinterpretacji źródeł.

Nowe zasady pisania stały się podstawą do nakreślenia wytycznych co do postępowania w razie podejrzenia łamania zasad. Przede wszystkim sama stylistyka tekstu nie będzie wystarczającą podstawą do nałożenia kar wobec redaktorów encyklopedii. Przedstawiciele Wikipedii podkreślają, iż niektórzy autorzy mogą pisać w sposób przypominający modele językowe. Tak więc decyzje o ewentualnych ograniczeniach będą opierać się na analizie zgodności treści z zasadami Wikipedii oraz historii edycji danego użytkownika.

Zmiana jest efektem długiej dyskusji wewnątrz społeczności i została przyjęta zdecydowaną większością głosów. W ostatnich miesiącach problem AI na Wikipedii narastał na tyle, iż powstały inicjatywy takie jak WikiProject AI Cleanup, których celem jest identyfikowanie i usuwanie treści niskiej jakości generowanych przez czatboty.

Więcej na temat Wikipedii:

Zdjęcie główne: JarTee / Shutterstock

Idź do oryginalnego materiału