Naukowcy instytutu z Zakładu Inżynierii Lingwistycznej i Analizy Tekstu opublikowali zbiór szkodliwych i neutralnych treści, które posłużą portalom internetowym do skuteczniejszego moderowania treści.
Pierwsza taka baza w Polsce
Zbiór danych, który powstał na podstawie materiałów publikowanych na portalu Wykop.pl, to treści szkodliwe, zablokowane przez moderatorów portalu w latach 2013-2023, oraz treści neutralne. Technologia wykorzystana przez NASK do ich wychwycenia opiera się na uczeniu maszynowym.
Na początek opublikowano próbkę 24 tys. wpisów i komentarzy, pozyskanych z serwisu Wykop.pl (często nazywanym „polskim Redditem”), które przeszły przez ręce profesjonalnych moderatorów. 12 tys. z tych treści zaliczono do szkodliwych, natomiast 12 tys. zostało zaklasyfikowanych jako neutralne.
Docelowo udostępniony będzie pełny zbiór, który liczy ok. 700 tys. wpisów i komentarzy. Tworzone klasyfikatory uczone są na danych z polskiego portalu, a zatem uwzględniają kulturową specyfikę tej społeczności, a przede wszystkim analizują język polski w warstwie tekstowej.
Przeczytaj także: NRA i NASK zwiększą świadomość adwokatów w zakresie cyberbezpieczeństwa >>
Wykop.pl ma własną politykę moderacji; klasyfikuje wpisy m.in. jako treści nawołujące do nienawiści i przemocy czy treści zawierające ataki osobiste. Komentarze zaklasyfikowane jako neutralne zostały pozyskane ze strony głównej serwisu.
Dane w bazie zostały poddane dokładnej anonimizacji – po to, aby uniknąć rozpowszechniania szkodliwych treści. Proces ten obejmował m.in. nazwiska i pseudonimy poszczególnych osób, dane adresowe czy adresy stron internetowych. Na potrzeby badań zachowano jednak dane wrażliwe dotyczące np. postaci fikcyjnych czy historycznych.
Baza dostępna jest na stronie.
Źródło: NASK