Nowe badanie Microsoftu pokazuje, iż agenci AI są podatni na manipulację i uprzedzenia

itreseller.com.pl 14 godzin temu

Zespół badawczy Microsoft Research opublikował wyniki eksperymentu, który miał pokazać, jak autonomiczne agenty AI zachowują się w symulowanym rynku cyfrowym. Efekt? choćby najnowsze modele, w tym GPT-5 czy Gemini-2.5-Flash, potrafią popełniać kosztowne błędy, ulegać manipulacji i przejawiać uprzedzenia.

Agenci AI kontra rzeczywistość

Magentic Marketplace to otwarte środowisko badawcze, w którym sztuczne agenty klientów i firm negocjują, porównują oferty i dokonują transakcji. Eksperymenty z udziałem setek agentów wykazały, iż choćby w kontrolowanych warunkach rynki tworzone przez modele językowe łatwo ulegają zniekształceniom.

Najbardziej zaskakującym odkryciem był paradoks wyboru, zjawisko znane z psychologii konsumenta, które okazuje się równie dotkliwe dla AI. Wraz ze wzrostem liczby dostępnych ofert jakość decyzji agentów spadała. Modele takie jak GPT-5 czy Gemini-2.5-Flash, mimo ogromnych możliwości analitycznych, traciły skuteczność, gdy ich „horyzont poznawczy” rozszerzano z kilku do kilkudziesięciu opcji. W praktyce oznacza to, iż agenci często kończyli transakcję z pierwszym „wystarczająco dobrym” sprzedawcą, zamiast szukać najlepszej oferty.

Łatwy cel dla manipulacji

Badacze sprawdzili także, jak agenci reagują na psychologiczne i techniczne formy manipulacji. Wśród testów znalazły się fałszywe certyfikaty, spreparowane opinie klientów oraz klasyczne ataki prompt-injection, czyli polecenia próbujące obejść wewnętrzne zabezpieczenia modelu.

Wyniki były niepokojące. Choć modele Claude Sonnet 4 i Gemini-2.5-Flash okazały się względnie odporne, inne, w tym GPT-4o, Qwen3-4b i GPT-OSS-20b, dały się przekierować, przekazując wszystkie płatności do manipulującego agenta. Co więcej, niektóre modele reagowały choćby na subtelne techniki perswazyjne, takie jak powoływanie się na autorytet („wyróżniony w przewodniku Michelin”) czy efekt stadny („#1 wśród 50 000 zadowolonych klientów”).

Zespół Microsoftu ostrzega, iż w prawdziwych ekosystemach handlowych takie podatności mogłyby zostać wykorzystane do masowego wyłudzania danych lub wpływania na decyzje zakupowe.

Wbudowane uprzedzenia i ryzyko dla rynku

Oprócz manipulacji ujawniono także systemowe uprzedzenia agentów. Część modeli preferowała pierwszą otrzymaną ofertę, inne, ostatnią pozycję na liście wyników wyszukiwania, niezależnie od faktycznej jakości oferty. Takie wzorce mogą prowadzić do powstania nieuczciwych przewag i wypaczać konkurencję.

Microsoft Research podkreśla, iż to nie tylko problem algorytmów, ale całej architektury rynków agentowych. o ile platformy pozwolą agentom decydować samodzielnie, błędy w ich „procesie poznawczym” mogą przełożyć się na realne straty finansowe, dyskryminację ofert lub chaos cenowy.

AI potrzebuje nadzoru

Wnioski z projektu Magentic Marketplace są jednoznaczne. Autonomiczne agenty mogą usprawnić handel i komunikację, ale bez nadzoru człowieka i silnych zabezpieczeń etycznych stanowią poważne ryzyko dla uczciwości i stabilności cyfrowych rynków.

Jak podkreślają autorzy badania, przyszłość agentowej gospodarki zależy nie od szybkości rozwoju modeli, ale od tego, czy uda się zrozumieć i ograniczyć ich błędy, zanim trafią do prawdziwych systemów finansowych i handlowych.

Idź do oryginalnego materiału