Globalni regulatorzy zacieśniają nadzór nad AI w finansach. Istnieje pułapka “efektu stadnego”

itreseller.com.pl 2 tygodni temu

Globalne organy nadzoru finansowego, w tym Rada Stabilności Finansowej (FSB) i Bank Rozrachunków Międzynarodowych (BIS), ogłosiły plany zintensyfikowania monitoringu wykorzystania sztucznej inteligencji w sektorze bankowym. Główne obawy dotyczą ryzyka systemowego, które może powstać, gdy zbyt wiele instytucji będzie polegać na tych samych, nielicznych modelach i dostawcach AI, co grozi tzw. efektem stadnym i nieprzewidywalnymi konsekwencjami dla stabilności rynków.

W opublikowanym 10 października raporcie, Rada Stabilności Finansowej, działająca jako organ monitorujący ryzyko dla grupy G20, wskazała na nowe zagrożenia związane z rosnącą popularnością AI w finansach. Regulatorzy obawiają się, iż masowe wdrażanie identycznych modeli sztucznej inteligencji i specjalistycznego sprzętu od ograniczonej liczby dostawców może prowadzić do ujednolicenia zachowań rynkowych. Taka koncentracja, jak podkreślono w raporcie FSB, “może tworzyć słabości, zwłaszcza gdy dostępnych jest kilka alternatyw”. To z kolei zwiększa podatność całego systemu finansowego na nieprzewidziane błędy lub ataki wymierzone w te powszechnie stosowane technologie.

Główne ryzyko, określane jako “algorytmiczny efekt stadny”, polega na tym, iż jeżeli wiele instytucji używa podobnych modeli AI, mogą one podejmować identyczne decyzje w tym samym czasie, np. masowo sprzedając aktywa w odpowiedzi na sygnał rynkowy. Może to prowadzić do gwałtownej zmienności i niestabilności, której skala byłaby trudna do opanowania. Dodatkowym zagrożeniem jest problem tzw. czarnych skrzynek (black boxes), gdzie procesy decyzyjne zaawansowanych modeli AI są tak złożone, iż stają się niezrozumiałe choćby dla ich twórców. Uniemożliwia to wyjaśnienie, dlaczego system podjął daną decyzję (np. o odrzuceniu wniosku kredytowego), a także utrudnia audyt i eliminację potencjalnych uprzedzeń algorytmicznych, które mogą prowadzić do dyskryminacji klientów.​

W osobnym opracowaniu Bank Rozrachunków Międzynarodowych (BIS) podkreślił “pilną potrzebę”, aby banki centralne, organy regulacyjne i nadzorcze podniosły swoje kompetencje w dziedzinie sztucznej inteligencji. Według BIS, instytucje te muszą nie tylko być “świadomymi obserwatorami skutków postępu technologicznego”, ale także same stać się użytkownikami tej technologii, aby móc skutecznie oceniać i zarządzać związanym z nią ryzykiem. Chodzi tu zarówno o zrozumienie ograniczeń algorytmów i podatności na ataki (np. poprzez manipulację danymi wejściowymi), jak i o budowanie umiejętności nadzoru nad coraz bardziej złożonymi systemami, które coraz częściej podejmują najważniejsze decyzje inwestycyjne czy kredytowe.​

Idź do oryginalnego materiału