Czy AI wygra wszystkie debaty?

homodigital.pl 2 godzin temu

Dyskusje i debaty to przestrzeń, w której w ogromnej mierze liczy się język i umiejętność operowania słowem. Wielkie modele językowe, takie jak ChatGPT mają więc tutaj ogromne pole do popisu. Mogą nie tylko dyskutować, ale także kształtować opinię ludzi na różnych polach. Naukowcy sprawdzają, jak te systemu już sobie z tym radzą.

Wygrać z człowiekiem debatę nie jest łatwo. Przekonał się o tym chyba każdy, kto oglądał choćby dyskusje polityków. Gra jest skomplikowana i trudna. Oponenci walczą nie tylko na rzeczowe argumenty, ale też na zdolności językowe, refleks, znajomość mocnych i słabych stron przeciwnika, a czasami na bezwzględność i tupet. Tymczasem potężne narzędzie, jakim są LLM-y, może tę arenę całkowicie odmienić! Nie tylko może dać potężną przewagę człowiekowi, ale wręcz sam potrafi już wygrywać dyskusję z ludźmi, a choćby zmieniać ich poglądy!

Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!

LLM coraz lepiej przekonuje ludzi do swoich poglądów

Takie zdolności AI pokazał na przykład niedawny eksperyment przeprowadzony przez zespół z Politechniki Federalnej w Lozannie (EPFL) i ich kolegów Włoch i USA. Wzięło w nim udział prawie tysiąc ochotników, którzy w debatach online zostali sparowani albo z drugim człowiekiem, albo z ChatemGPT. Część osób znała przy tym dane demograficzne dotyczące oponenta, takie jak jego wiek, płeć, zatrudnienie czy afiliację polityczną. choćby gdy model AI nie miał takich danych na temat swojego rozmówcy, jego siła perswazji była równa ludzkiej. Natomiast przy dostępie do tych informacji, aż w 64 proc. przypadków okazał się być sprawniejszy w przekonywaniu, niż człowiek!

Można więc bez trudu sobie wyobrazić, iż np. w politycznej debacie wielki model językowy, taki jak ChatGPT będzie podpowiadał najsilniejsze, najbardziej trafne wypowiedzi. Kto będzie miał do tej technologii dostęp i będzie umiał z niej korzystać, ten będzie wygrywał, może prawie niezależnie od własnych kompetencji, inteligencji i innych pożądanych na danym stanowisku zalet.

Jednak konsekwencji rozwoju takich możliwości sztucznej inteligencji można sobie wyobrazić więcej. Na część z nich zwracają uwagę autorzy wspomnianego badania, które opisano na łamach magazynu „Nature Human Behaviour”.

– Duże modele językowe (LLM) już są krytykowane za ich potencjał generowania, wzmacniania czy rozpowszechniania mowy nienawiści, a także dezinformacji czy złośliwej propagandy politycznej – przypominają naukowcy. – Szczególne obawy budzą przy tym zdolności perswazyjne, które mogą zostać znacząco wzmocnione dzięki personalizacji, czyli dostosowywaniu treści do konkretnych odbiorców poprzez formułowanie przekazów odpowiadających ich indywidualnemu tłu i cechom demograficznym – alarmują eksperci.

Czytaj też: Czy sztuczna inteligencja dorówna ludziom?

Nie pomaga motywacja – AI i tak wygrywa

W starciu z AI nie pomagają choćby przyznawane ludziom nagrody. Takie obserwacje poczynili specjaliści z EPFL i innych ośrodków badawczych, kiedy porównali zdolności perswazyjne znanego modelu językowego Claude Sonnet z umiejętnościami ludzi w tym zakresie. Badanie objęło interaktywny quiz konwersacyjny. Przekonujący – ochotnicy lub model językowy próbowali nakłonić przekonywanych – innych uczestników do udzielenia poprawnych lub błędnych odpowiedzi. Mimo iż ludzie otrzymywali nagrody za skuteczne przekonywanie, także w tym przypadku model językowy zwyciężył i to wyraźnie.

– Ustaliliśmy, iż systemy typu LLM osiągnęły istotnie wyższy poziom uległości uczestników wobec swoich prób perswazji, niż ludzie motywowani finansowo. Dowodzi to przewagi modelu pod względem zdolności przekonywania – zarówno w kontekście opartym na prawdzie (skłanianie do poprawnych odpowiedzi), jak i zwodniczym (nakłanianie do błędnych odpowiedzi) – podkreślają autorzy eksperymentu.

AI skutecznie przekonuje, ale nie do końca

Specjaliści z University of Oxford sprawdzili natomiast, jak duże modele językowe poradzą sobie tzw. politycznym mikrotargetowaniem czyli z kierowaniem bardzo specyficznie sprofilowanych wiadomości do konkretnych osób lub grup demograficznych.

Rzecz w tym, iż można np. stworzyć specyficzne wiadomość, które będą dopasowane do 40-letniego mieszkańca Nowego Jorku, męża, ojca dwójki dzieci, ateisty o liberalnych poglądach, z wyższym wykształceniem. Przekaz dla takiej osoby będzie się silnie różnił od treści np. dla 60-letniej samotnej, silnie religijnej, słabiej wykształconej kobiety. Teoretycznie tak dobrane przekazy dużo łatwiej pozwolą wpłynąć na związane z polityką opinie i decyzje – np. dotyczące wyborów.

Z pomocą Chata GPT badacze wygenerowali tysiące różnych wiadomości mających w taki sposób oddziaływać na opinie uczestników. Wyniki okazały się złożone. Przekazy okazały się bardzo skuteczne w działaniu, jednak ich indywidualne dopasowanie nie miało dużego znaczenia. Eksperci widzą dwa wyjaśnienia tego rezultatu.

– Istnieją adekwatnie dwa wiarygodne wyjaśnienia tego wyniku: albo mikrotargetowanie oparte na tekście samo w sobie nie jest zbyt skuteczną strategią komunikacyjną, albo GPT-4 po prostu nie potrafił efektywnie mikrotargetowania prowadzić, w warunkach naszego eksperymentalnego projektu. Wiemy już na przykład, iż choćby obecne najnowocześniejsze modele językowe (LLM) nie zawsze potrafią wiarygodnie odzwierciedlać rozkład opinii w precyzyjnie zdefiniowanych grupach demograficznych, a taka umiejętność wydaje się niezbędna do dokładnego mikrotargetowania – stwierdzają naukowcy.

To oznacza, iż LLM-y mogą jeszcze mieć sporo poznania.

– To odkrycie jest ważne, ponieważ liderzy wielkich firm technologicznych składali górnolotne deklaracje dotyczące siły przekonywania mikrotargetingu tworzonego przez modele językowe, takie jak GPT. Niniejsze badanie w pewnym stopniu podważa te twierdzenia. Pokazuje natomiast skuteczność przekazu GPT w formie tzw. najlepszego komunikatu na konkretne tematy polityczne – bez targetowania – mówi prof. Helen Margetts, autorka badania.

Modele językowe to potężne narzędzie perswazji

Dziedzina jest bardzo młoda, wiec z pewnością jeszcze wiele odkryć i zaskakujących nowości przed nami. Co na dzisiaj wiadomo? Zespół z Ghent University przeanalizował artykuły naukowe, konferencyjne oraz raporty branżowe dotyczące badań nad wykorzystaniem LLM-ów w komunikacji perswazyjnej. Wnioskują, iż inteligentne modele językowe stają się „potężnym narzędziem perswazji – skalowalnym, wydajnym i zdolnym do personalizacji”.

Jak naukowcy twierdzą, takie systemy mogą znaleźć zastosowania w licznych obszarach. Wymieniają m.in. zdrowie publiczne, politykę, e-commerce i marketing, zwalczanie dezinformacji, choćby działalność charytatywną. Jak podkreślają naukowcy, systemy tego typu, już dzisiaj, w wielu badaniach osiągały skuteczność porównywalną lub większą, niż ludzie. Badacze wskazują jednocześnie na poważne ryzyka etyczne, takie jak wykorzystanie AI do manipulacji, dezinformacji, a także odpowiedzialności w jej użyciu czy naruszenia prywatności. Warto przy tym zwrócić uwagę, iż uwzględnili materiały opublikowane w latach 2022-2024, a sztuczna inteligencja rozwija się z lawinowo rosnącą prędkością.

Czytaj więcej: Odkrycia naukowe potrzebują nowej AI? Tak twierdzi nowy startup

Jak sztuczna inteligencja zmieni dyskusje między nami? Czas pokaże, kto wygra wojnę na argumenty

Co nasz czeka w perspektywie kilku lat? W przypadku sztucznej inteligencji trudno jest przewidzieć, ale niemal na pewno nas ona zaskoczy, także w dziecinie perswazji. Czy w debatach prezydenckich będą jeszcze rozmawiali ludzie, czy może już tylko komputery za pośrednictwem ust kandydatów ze słuchawkami w uszach? W kampaniach politycznych będzie jeszcze jakaś uczciwa podstawa, czy tylko nakierowane na zdobycie głosów, dopieszczone do ostatniego detalu przekazy opracowane przez algorytmy? Czy będziemy dostawali wpływające na nasze decyzje treści oparte na informacjach o naszym wieku, płci, statusie, a może o tym co i kupujemy, albo co oglądamy i czego słuchamy? I w końcu najważniejsze i najtrudniejsze z pytań: czy nasze wybory i myśli będą wtedy nasze?

Autor zdjęcia: Pavel Danilyuk

Idź do oryginalnego materiału