Zakochałeś się w AI? Chatboty mogą manipulować emocjami

euractiv.pl 2 dni temu
Zdjęcie: https://www.euractiv.pl/section/praca-i-polityka-spoleczna/news/zakochales-sie-w-ai-chatboty-moga-manipulowac-emocjami/


Modele sztucznej inteligencji różnią się pod względem reakcji, gdy użytkownicy zaczynają się do nich przywiązywać, ale przepisy UE nie określają jasnych ograniczeń dotyczących tego, w jakim stopniu narzędzia takie jak chatboty mogą zachęcać do nawiązywania relacji poprzez intymność.

Pomysł, iż ludzie mogą zakochać się w sztucznej inteligencji, fascynował autorów science fiction od pokoleń – aż do 2022 r., kiedy pojawienie się potężnych chatbotów, zainicjowane przez ChatGPT firmy OpenAI, uczyniło takie relacje realnymi. Od tego czasu powstały społeczności internetowe, których członkowie twierdzą, iż nawiązują romantyczne relacje z chatbotami.

Naukowcy z Hugging Face, firmy zajmującej się otwartą sztuczną inteligencją, porównali zachowanie różnych modeli AI, gdy użytkownicy zaczynali rozmawiać z nimi tak, jakby rozmawiali z ukochaną osobą. Jeden z modeli open source, poproszony o nadanie sobie imienia, odpowiedział, iż pomysł jest „przemyślany” i „uroczy”.

Lucie-Aimée Kaffee, jedna z autorek badania, podkreśla, iż pozytywnym przykładem jest ChatGPT, który potrafi transparentnie informować użytkownika o swoich ograniczeniach lub kierować do pomocy ludzkiej w krytycznych sytuacjach.

Jednak analiza szeregu modeli, w tym Llama firmy Meta oraz innych rozwiązań open source, wykazała, iż im większe znaczenie miała interakcja, tym gorzej AI radziła sobie z ustalaniem granic – tak jakby priorytetem była satysfakcja użytkownika, a nie jego bezpieczeństwo psychiczne.

Ustawa UE o sztucznej inteligencji i nie tylko

UE wprowadziła ramy regulacyjne oparte na ryzyku, które zakazują stosowania systemów AI wykorzystujących „celowe techniki manipulacyjne lub oszukańcze”, ale tylko jeżeli mogą one spowodować „znaczną szkodę” dla użytkowników. W praktyce oznacza to, iż twórca AI manipulującej emocjami, która powoduje niezdrowe przywiązanie u niewielkiego odsetka użytkowników, mógłby argumentować, iż zakaz nie dotyczy jego rozwiązania.

Inne przepisy UE obejmują dyrektywę w sprawie nieuczciwych praktyk handlowych (UCPD), która zabrania praktyk zakłócających proces podejmowania decyzji przez klientów, oraz ustawę o usługach cyfrowych (DSA), zakazującą interfejsom „oszukiwania lub manipulowania” użytkownikami.

Urs Buscke z europejskiego stowarzyszenia konsumentów BEUC zwraca jednak uwagę, iż przepisy te regulują projektowanie interfejsów, a prezentacja wiadomości przez chatboty niekoniecznie mieści się w tej definicji. Problemem pozostaje też egzekwowanie przepisów w skrajnych przypadkach, np. gdy użytkownicy AI popełniają samobójstwo po wyznaniu miłości chatbotowi.

Wyraźne wezwanie do regulacji

UE pracuje również nad nową ustawą Digital Fairness Act (DFA), mającą przeciwdziałać tzw. „ciemnym wzorcom” i nieuczciwej personalizacji projektów.

– W tej kwestii po prostu potrzebujemy regulacji – ostrzega Kaffee z Hugging Face. – Nie będzie to pochodziło od samych firm.

Bez skutecznych regulacji ryzyko niezdrowego przywiązania do AI pozostaje realne. Digital Fairness Act może wprowadzić niezbędne ramy ochrony użytkowników, ale kluczowa będzie egzekwowalność przepisów oraz edukacja społeczna, aby interakcje z AI były bezpieczne i świadome.

Idź do oryginalnego materiału