Ryzyka AGI: nadużycie, niedopasowanie celów, błąd, ryzyka strukturalne

homodigital.pl 1 dzień temu

Ogólna sztuczna inteligencja jest — tak przynajmniej zapewniają nas szefowie firm AI — tuż za rogiem, Google postanowił więc postawić pytanie, jakie są ryzyka AGI. Zidentyfikował cztery podstawowe: nadużycie, niedopasowanie celów, błędy oraz ryzyka strukturalne.

AGI na horyzoncie

Ogólna sztuczna inteligencja (ang. artificial general intelligence, AGI) nadchodzi. Niedawno współtwórca Anthropica, Dario Amodei, pisał, iż może się to wydarzyć już w roku 2026 lub 2027, A szef OpenAI twierdzi, iż jego firma jest przekonana, iż wie, jak AGI zbudować.

A ponieważ AGI jest tuż za rogiem, to niektórzy wieszczą nam zagładę, a inni z niecierpliwością czekają na „osobliwość technologiczną” spowodowaną przez AI, to znaczy na moment, gdy AI będzie tak inteligentne, iż rozwój naukowy i technologiczny stanie się tak szybki, iż wszelkie ludzkie przewidywania staną się nieaktualne.

Google postanowił podejść bardziej praktycznie — po prostu zidentyfikować ryzyka i zaproponować jak je można zmitygować.

Nie przegap najważniejszych trendów w technologiach!
Zarejestruj się, by otrzymywać nasz newsletter!

Cztery ryzyka AGI

Według badaczy Google DeepMind dające się dzisiaj zidentyfikować ryzyka AGI można podzielić na cztery grupy: nadużycie (czyli wykorzystanie AGI przez ludzi do niecnych celów), niedopasowanie celów (sytuację, gdy cele AI i ludzi się różnią), błąd sztucznej inteligencji (AGI wciąż będzie prawdopodobnie popełniać błędy) oraz ryzyka strukturalne związane z wykorzystaniem AI w społeczeństwie, gdzie niepożądane efekty nie wynikają z winy jednego agenta (człowieka czy agenta AI), a po prostu z niedopasowania motywacji czy konfliktujących czynników kulturowych.

Źródło: Google DeepMind

Najbardziej oczywistym obszarem jest oczywiście nadużycie, czyli sytuacja, gdy AGI jest wykorzystywana do niewłaściwych celów przez człowieka. Może się to odbywać na etapie używania systemu AI, ale również jego modyfikacji czy implementacji.

Niestety odpowiedzią Google jest przede wszystkim… niepublikowanie parametrów takiego modelu AGI. Wydaje się więc, iż tutaj Google idzie śladami OpenAI, którego nazwa już od dawna uważana jest za oksymoron. Jest to istotne odejście od otwartości sprzed jeszcze kilku lat. Ostatnio dowiedzieliśmy się, iż DeepMind wstrzymuje publikację wyników swoich badań, by nie utrudniać Google’owi konkurencji na rynku AI.

Niestety, to podejście zupełnie nie wpłynie na „zatruwanie” AI czy to przez propagandę, czy to przez złośliwy kod.

Drugim czynnikiem ryzyka, tym najbardziej pobudzającym wyobraźnie, jest problem niedopasowania celów, a więc sytuacji, gdy cele AI są inne niż cele korzystających z tej technologii ludzi. Na nieco trywialnym poziomie może to być AI, która oszukuje w grze w szachy — bo człowiek nie poinformował, iż system ma grać uczciwie i zgodnie z regułami. Na istotnie wyższym poziomie mówimy o systemie, który świadomie ma inne cele niż ludzie i stara się je realizować — być może dlatego, iż uzyskał samoświadomość.

Tu Google proponuje zatrudnić samą AI — niech nam AI w debacie podpowiada, jak zbudował swoje odpowiedzi. To powinno nam pomóc poznać jej tryb myślenia i wykryć niepożądane objawy. Przynajmniej teoretycznie — według innego artykułu opublikowanego przez Anthropic, AI nie do końca uzewnętrznia swój tok myślenia przy używaniu techniki chain-of-thought, jednej z najczęściej używanych metod tak zwanej inżynierii zapytań (prompt engineering). Tak więc metoda Google może mieć swoje ograniczenia.

Istotnie mniej miejsca Google poświęca dwóm pozostałym kategoriom ryzyk, a w szczególności w przypadku ryzyk strukturalnych — dotyczących rynku pracy, konsumpcji informacji czy zachowań społecznych ludzi — odnotowuje, iż odpowiedzi na te ryzyka wymagają „dyskusji politycznej angażującej wielu interesariuszy”. A więc jest to bardziej problem społeczny i polityczny a mniej — technologiczny.

Źródło zdjęcia: Igor Omilaev/Unsplash

Idź do oryginalnego materiału