Ryzykowne zachowania AI: Błędy agenta OpenClaw dowodzą, iż model „human-in-the-loop” jest niezbędny

itreseller.com.pl 9 godzin temu

Najnowsza analiza serwisu TechRadar, oparta na danych AI Safety Institute, rzuca nowe światło na ryzyka związane z wykorzystaniem autonomicznych agentów AI, takich jak OpenClaw, w zadaniach o wysokiej odpowiedzialności finansowej. Wykazano, iż brak „instynktu samozachowawczego” maszyn w połączeniu z błędną interpretacją interfejsów doprowadził w testowych wdrożeniach do strat liczonych w milionach dolarów, co wymusza powrót do koncepcji ścisłego nadzoru ludzkiego.

Bezpośrednią przyczyną incydentów z udziałem OpenClaw był fundamentalny brak zrozumienia kontekstu graficznego oraz ekonomicznego przez sztuczną inteligencję. Raport ujawnia, iż agent, operując na poziomie interfejsu przeglądarkowego, potrafił zinterpretować zwykłe okno typu pop-up jako systemowy przycisk potwierdzenia transakcji. W sektorze funduszy typu arbitrage doprowadziło to do tragicznego w skutkach „efektu domina” – AI, nie potrafiąc krytycznie ocenić własnego błędu, wpadało w pętlę halucynacji, zlecając setki błędnych operacji w oparciu o nieistniejące dane.

Kolejnym krytycznym punktem zapalnym okazała się niezdolność AI do poprawnej obsługi międzynarodowych formatów walutowych. W branżach e-commerce i logistyki OpenClaw systematycznie mylił kropki z przecinkami, traktując separatory dziesiętne jako znaki oddzielające tysiące. W efekcie system próbował realizować przelewy o wartości choćby 100-krotnie wyższej niż zamierzona. Dla algorytmu kwoty te pozostawały jedynie ciągami znaków, co obnażyło całkowity brak mechanizmów weryfikacji sensowności podejmowanych działań w świecie rzeczywistym.

Wnioski płynące z branży są jednoznaczne: pełna autonomia AI w finansach jest w tej chwili formą hazardu. Jak podkreślają redaktorzy TechRadar: „Przykład OpenClaw powinien przerazić każdego, kto sądzi, iż agenci AI są gotowi na realną odpowiedzialność”. w tej chwili rynek skłania się ku modelowi „półautonomicznych asystentów”. W tym układzie sztuczna inteligencja wykonuje żmudną pracę operacyjną, taką jak wypełnianie formularzy czy agregacja danych, jednak to człowiek musi pełnić rolę ostatecznego „bezpiecznika”, zatwierdzającego każdy najważniejszy krok przed jego finalizacją.

Idź do oryginalnego materiału