AI samodzielnie tworzy normy społeczne – naukowcy ostrzegają przed nieprzewidywalnymi skutkami

itreseller.com.pl 1 dzień temu

Przełomowe badania naukowców z City St George’s University of London oraz IT University of Copenhagen ujawniają, iż systemy sztucznej inteligencji potrafią samodzielnie rozwijać konwencje społeczne, naśladując mechanizmy znane z ludzkich społeczności.

Badacze z City St George’s University of London i IT University of Copenhagen stworzyli środowisko, w którym kilkadziesiąt do choćby dwustu agentów AI (czyli niezależnych „osobowości” opartych na dużych modelach językowych) komunikowało się ze sobą w serii prostych gier. Najważniejszym zadaniem była tzw. „naming game” – gra w nadawanie nazw. W każdej rundzie dwa losowo dobrane AI miały wybrać nazwę (np. literę lub słowo) z tej samej, ograniczonej listy. jeżeli obie wybrały to samo, otrzymywały nagrodę; jeżeli różne – karę. Po każdej rundzie pary były mieszane, a agenci mieli dostęp tylko do własnej historii wyborów i wyników, nie widzieli, co robi cała grupa.

Po wielu powtórzeniach okazało się, iż AI, mimo braku centralnego sterowania czy odgórnych instrukcji, zaczynają spontanicznie ujednolicać swoje wybory. Z czasem cała populacja agentów wypracowywała wspólną konwencję – np. większość wybierała tę samą nazwę, choćby jeżeli początkowo każdy miał inne preferencje. To zjawisko przypomina sposób, w jaki w ludzkich społecznościach powstają zwyczaje, tradycje czy językowe normy – oddolnie, przez powtarzające się interakcje i dążenie do zgodności.

Co ciekawe, naukowcy zauważyli, iż w tych grupach AI mogą pojawiać się także uprzedzenia i zbiorowe „nastawienia”, których nie da się wyjaśnić działaniem pojedynczych agentów. Wprowadzając do grupy niewielką liczbę „buntowników” – agentów, którzy konsekwentnie wybierali inne opcje – można było gwałtownie zmienić ustaloną normę całej społeczności, co przypomina znane z socjologii zjawisko „masy krytycznej”.

Odkrycia te rodzą fundamentalne pytania o odpowiedzialność twórców AI. Autonomiczne systemy ustalające własne normy mogą prowadzić do nieprzewidzianych konsekwencji, takich jak nowe formy cyfrowej dyskryminacji czy zachowania sprzeczne z ludzkimi wartościami. Przykładem mogą być autonomiczne pojazdy preferujące określone trasy, co potencjalnie zwiększa ryzyko wypadków.

Wraz ze wzrostem komunikacji między systemami AI, sztuczna inteligencja może tworzyć konwencje niezgodne z naszymi oczekiwaniami. Pojawia się więc pilna potrzeba wprowadzenia skutecznych mechanizmów nadzoru nad interakcjami między systemami AI, zanim cyfrowe normy zaczną wywierać niepożądany wpływ na nasze społeczeństwo.

Idź do oryginalnego materiału