Sztuczna inteligencja potrafi wykryć zawczasu, czy pokłócisz się podczas rozmowy online

instalki.pl 1 tydzień temu

Internet to dziś główna przestrzeń wymiany opinii, myśli i doświadczeń. Niestety, często zdarza się, iż rozmowy prowadzone w sieci schodzą z adekwatnego toru. Dyskusje przeradzają się w kłótnie, pojawiają się personalne ataki, a cała konwersacja zamienia się w źródło stresu i frustracji.

To wyzwanie nie tylko dla samych użytkowników, ale przede wszystkim dla moderatorów, którzy starają się dbać o kulturę wypowiedzi i bezpieczeństwo społeczności online. Ręczna moderacja nie zawsze jest wystarczająca, zwłaszcza gdy mamy do czynienia z ogromną liczbą rozmów toczących się jednocześnie na różnych platformach. Właśnie dlatego naukowcy coraz częściej szukają wsparcia w sztucznej inteligencji.

Nowe badania z Japonii

Zespół badawczy z Uniwersytetu Tsukuba w Japonii postanowił sprawdzić, czy sztuczna inteligencja może przewidzieć, kiedy rozmowa online zaczyna zmierzać w niepokojącym kierunku – zanim jeszcze dojdzie do konfliktu. W tym celu wykorzystano duże modele językowe, podobne do tych używanych przez narzędzia takie jak ChatGPT. Badanie skupiło się na tzw. metodzie „zero-shot learning”, co oznacza, iż model AI nie był wcześniej uczony na konkretnych przykładach z danej platformy. Mimo tego, był w stanie analizować treść rozmowy i przewidywać, czy za chwilę dojdzie do zaostrzenia dyskusji. To podejście okazało się nie tylko innowacyjne, ale również niezwykle skuteczne.

Przykłady zbaczania tematów w rozmowach online/ Źródło: IEEE Access

W praktyce badacze dali modelom dostęp do zapisów rozmów prowadzonych w różnych miejscach w sieci. AI otrzymało zadanie określenia, które wypowiedzi mogą zwiastować odejście od głównego tematu i wejście na drogę personalnych wycieczek czy konfliktów. Co ciekawe, mimo iż modele nie znały wcześniej kontekstu tych rozmów ani nie były specjalnie trenowane na podobnych przykładach, to potrafiły z dużą precyzją wskazać fragmenty niosące ryzyko eskalacji.

W wielu przypadkach modele zero-shot dorównywały skutecznością specjalistycznym systemom, które wymagały godzin treningu na danych z konkretnych platform. To pokazuje, iż AI potrafi nie tylko analizować sens wypowiedzi, ale również wyczuwać emocje i napięcia między rozmówcami.

Zmiany przewidywań w czasie / Źródło: IEEE Access

Ręczna moderacja już nie wystarczający

Dotychczas każda platforma internetowa musiała tworzyć własne systemy do moderacji, dostosowane do swojej społeczności i specyfiki komunikacji. To wiązało się z dużymi kosztami, czasem, a także koniecznością utrzymywania zespołów odpowiedzialnych za aktualizację i dopasowanie algorytmów. Badania z Tsukuby pokazują, iż można stworzyć uniwersalne narzędzia, które sprawdzą się niezależnie od miejsca. Dzięki temu możliwe będzie wdrożenie skutecznej, a zarazem bardziej dostępnej moderacji na mniejszych portalach, forach czy choćby w aplikacjach edukacyjnych. To istotne zwłaszcza w kontekście walki z mową nienawiści, dezinformacją i cyberprzemocą.

Naukowcy zapowiadają kontynuację projektu i dalsze badania nad możliwościami sztucznej inteligencji w zakresie moderacji treści. Planują między innymi sprawdzić, jak połączyć modele językowe z istniejącymi narzędziami do filtrowania treści oraz jak zadbać o prywatność użytkowników. W przyszłości takie modele mogą nie tylko przewidywać konflikty, ale również podpowiadać użytkownikom, jak lepiej sformułować wypowiedź lub proponować łagodniejsze wersje wiadomości. To może całkowicie zmienić sposób, w jaki prowadzimy rozmowy online – mniej konfliktów, więcej wzajemnego szacunku.

Sztuczna inteligencja zagląda za fasady budynków dzięki Google Street View
AIciekawostkisztuczna inteligencja
Idź do oryginalnego materiału