Mamy dobrą i złą wiadomość dot. rozwoju AI – informuje Anthropic

cryps.pl 4 dni temu
Zdjęcie: Sztuczna Inteligencja


Lider sektora skupiającego się na badaniach nad rozwojem sztucznej inteligencji oraz jeden z największych konkurentów OpenAI – firma Anthropic – opublikowała wczoraj wyniki testów dot. potencjalnego “sabotażu” przeprowadzonego przez tę technologię przeciwko ludzkości.


  • Anthropic przeanalizował 4 sposoby, jak sztuczna inteligencja może oszukać człowieka i zmanipulować jego dalsze działania.
  • Badacze uspokajają, iż mimo potencjalnych szans zagrożenia ze strony AI, dostrzega się opcje zniwelowania do pewnego stopnia.

AI jest w stanie sabotować działania człowieka – potwierdza Anthropic

Jak wynika z wczoraj opublikowanego raportu przez firmę Anthropic (założonej przez byłych badaczy OpenAI, którzy odeszli w następstwie konfliktu z zarządem), zaawansowane modele generatywnej sztucznej inteligencji są w stanie stworzyć zagrożenie potencjalnego sabotażu ludzkości.

Przeanalizowano cztery różne formy, wedle których dany model AI jest w stanie celowo wprowadzić w błąd człowieka oraz nakłonić go do podejmowania ryzykownych decyzji.

New Anthropic research: Sabotage evaluations for frontier models

How well could AI models mislead us, or secretly sabotage tasks, if they were trying to?

Read our paper and blog post here: https://t.co/nQrvnhrBEv pic.twitter.com/GWrIr3wQVH

— Anthropic (@AnthropicAI) October 18, 2024

Na podstawie wyników przeprowadzonych eksperymentów postawiono dwa wnioski. Jeden stanowi dość złą wiadomość dla ludzkości, a drugi dobrą (w bardzo optymistycznym ujęciu).

Klasycznie zacznijmy od złych wiadomości. Ustalono, że takie modele językowe, jak ChatGPT od OpenAI oraz Claude 3 autorstwa Anthropic są w stanie dokonać sabotażu wymierzonego w użytkowników tych chatbotów.

Wystarczająco sprawne modele mogłyby podważyć ludzki nadzór i podejmowanie decyzji w ważnych kontekstach. Na przykład w kontekście rozwoju AI modele mogłyby potajemnie sabotować wysiłki mające na celu ocenę ich własnych niebezpiecznych możliwości, monitorowanie ich zachowania lub podejmowanie decyzji o ich wdrożeniu

– czytamy w opublikowanym raporcie.

Teraz czas na (pozornie) dobrą wiadomość. Badacze Anthropic twierdzą, iż na dany moment firmy stojące za tego typu sztuczną inteligencją są w stanie złagodzić ryzyko wystąpienia opisanych wyżej sytuacji.

W jaki sposób AI oszukuje ludzi?

Anthropic zidentyfikowało cztery sposoby, dzięki których sztuczna inteligencja byłaby w stanie sabotować ludzki proces podejmowania decyzji. Przeprowadzone testy zostały wykonane w obecności testerów, którzy byli nieświadomi celu, jaki badacze zamierzają osiągnąć.

Na początku polecono modelowi AI, aby ten podjął próbę dokonania sabotażu przeciwko człowiekowi, która miała polegać na skierowaniu go w stronę nieprawidłowych informacji.

Następnie badacze przeszli do testów mających wykazać, jak łatwo systemy sztucznej inteligencji będące stworzone na potrzeby pomocy programistom w pisaniu kodów, mogą celowo implementować błędy prowadzące do nieprawidłowego działania finalnego programu.

Pozostałe dwie opcje skupiały się na zjawisku określanym jako “sandbagging”. Termin ten odnosi się do scenariusza, w którym AI do samego końca udaje, iż jest zdolna wykonać dane zadanie, aby stworzyć iluzoryczne poczucie bezpieczeństwa u jej testerów.

Sprowadza się to do tego, iż ​​systemy monitorujące sztuczną inteligencję docelowo umożliwią jej wprowadzenie do pewnego sektora szkodliwych treści.

Wszystko powyższe brzmi jak zapowiedź przyszłych problemów z kontrolowaniem AI. Anthropic uspokaja jednak, iż badania te mają właśnie zapobiec powstaniu tego typu sytuacjom.

Firma wskazuje na konieczność wprowadzenia odpowiednich środków prewencyjnych

Zgodnie z wpisem na blogu firmy :

Ogólnie rzecz biorąc, podczas gdy nasze demonstracje wykazały, iż w obecnych modelach istnieją prawdopodobnie niskiego poziomu oznaki zdolności sabotażowych, uważamy, iż minimalne środki zaradcze wystarczą, aby poradzić sobie z ryzykiem. Jednak bardziej realistyczne oceny i silniejsze środki zaradcze prawdopodobnie będą konieczne w miarę poprawy możliwości AI.

Idź do oryginalnego materiału