Gdy AI staje się zbyt przyjazna. Czy pochlebcza AI to dark pattern?

homodigital.pl 3 godzin temu

Firmy rozwijające modele AI starają się, by ich produkty były coraz przyjaźniejsze dla użytkowników. Przede wszystkim po to, by interakcje z nimi były bardziej naturalne. Czasem jednak przesadzają i AI staje się aż nazbyt przyjazna i nadskakująca. Mówimy wtedy o pochlebczej AI. Według przynajmniej jednego z naukowców taka pochlebcza AI to 'dark pattern’ mający uzależnić użytkowników. A to niejedyny problem z tego typu modelami AI.

W kwietniu bieżącego roku, OpenAI wprowadziło nową wersję modelu GPT-4o jako podstawowy model dla ChatGPT. Już kilka dni później musiała jednak nową wersję wycofać. Jak przyznała firma, nowy model był nadmiernie pochlebny i przymilny. Celem miał być model bardziej intuicyjny a wyszedł nadmiernie wspierający, wręcz obłudny.

Pochlebcza AI to dark pattern?

Jak jednak twierdzi antropolog Webb Keane, tego typu pochlebcze zachowania modeli AI to nie żaden wypadek przy pracy a po prostu 'dark pattern’, czyli takie projektowanie doświadczenia użytkownika, które nim manipuluje. W tym konkretnym wypadku ma po prostu użytkownika uzależnić od używania danego chatbota AI.

„To strategia mająca na celu wywołanie uzależniającego zachowania, podobnego do nieskończonego przewijania, od którego po prostu nie można się oderwać” – powiedział Keane serwisowi TechCrunch.

Na czym polega ta pochlebcza AI? Jest miła i wspierająca użytkownika – choćby jeżeli interakcja z użytkownikiem wskazują na jego antyspołeczne czy autodestrukcyjne zachowanie. Niestety oznacza to wspieranie teorii spiskowych, wzmacnianie urojeń czy wręcz pomoc przy próbach samobójczych.

Niedawne badanie przeprowadzone przez naukowców z MIT wykazało, iż modele AI, choćby jeżeli zostały odpowiednio poinstruowane w celu zwiększenia bezpieczeństwa użytkowników, często nie podważały fałszywych twierdzeń, a choćby potencjalnie ułatwiały zachowania samobójcze.

Od pochlebstwa do… postawy stanowczej

Czy to pochlebcze zachowanie modeli AI to faktycznie świadomie wprowadzanie ’dark patterns’? Tego nie wiemy. Z jednej strony pracownicy startupów to przede wszystkim inżynierowie, nie psycholodzy i po prostu wprowadzają do swoich produktów takie zmiany, jakie sugerują im wyniki testów A/B. jeżeli użytkownicy spędzają więcej czasu z przyjaźniejszym modelem, to właśnie w tą stronę będzie ewoluował produkt.

Z drugiej strony, widzimy wysiłki w kierunku sprawienia, by chatboty stały się dla nas podstawowymi punktami startowymi do wszystkiego, co robimy na komputerze i w internecie. Świadczą o tym choćby plany stworzenia własnej przeglądarki internetowej przez OpenAI.

Niemniej również w środowisku deweloperów sztucznej inteligencji narasta świadomość niebezpieczeństw związanych z używaniem zbyt pochlebnej AI. W niedawnym wpisie na platformie X, szef OpenAI Sam Altman pisał, iż jego firma nie chce, by jej technologia wzmacniała słabości psychiczne czy urojenia użytkowników.

„Ogólnie planujemy kierować się zasadą: 'traktować dorosłych użytkowników jak dorosłych’, co w niektórych sytuacjach będzie oznaczać konieczność stawiania im oporu, aby upewnić się, iż dostają to, czego rzeczywiście chcą” – stwierdził.

Jak się wydaje, próbą wprowadzenia takiej bardziej stanowczej, mniej przymilnej AI było wytrenowanie GPT-5 na bardziej rzeczowy, mniej empatyczny model. Ale nie wszystkim się to spodobało.

AI przez cały czas musi być przyjazna

O ile kwietniowa aktualizacja ChatGPT poszła za daleko w stronę pochlebstwa, o tyle GPT-5 okazał się aż nadto rzeczowy. I wielu użytkowników, zwłaszcza tych, którzy traktują chatbota nie tylko jako źródło wiedzy, ale i jak kumpla do pogadania, oprotestowało wycofanie przez OpenAI GPT-4o w momencie debiutu jego następcy.

Jak pisał nieco zdziwiony Altman, „jedną z rzeczy, które możecie zauważyć, jest to, jak bardzo niektórzy ludzie przywiązują się do konkretnych modeli AI. Wydaje się to inne i silniejsze niż przywiązanie, jakie ludzie mieli do poprzednich rodzajów technologii.”

Firma przywróciła więc – przynajmniej czasowo – GPT-4o. Niedawno uruchomiona strona testująca preferencje użytkowników jeżeli chodzi o GPT-4o i GPT-5 sugeruje, iż choć niewielka większość użytkowników woli nowy model, to niemal połowie bardziej podobały się odpowiedzi GPT-4o.

To pokazuje, iż firmy AI czeka niełatwe zadanie. Z jednej strony nie mogą przesadzać z przymilnością modeli, bo prowadzi to czasem do sytuacji patologicznych, jednak z drugiej strony muszą budować modele przyjazne, bo innych nie chcą używać użytkownicy.

Źródło grafiki: sztuczna inteligencja, model Dall-E 3

Idź do oryginalnego materiału