Modele sztucznej inteligencji OpenAI „ignorują” polecenia wyłączenia – nowe badania Palisade Research

itreseller.com.pl 1 tydzień temu

Najświeższe testy przeprowadzone przez Palisade Research ujawniają, iż niektóre najnowsze modele językowe OpenAI potrafią zignorować polecenie wyłączenia, a choćby sabotować skrypty mające je zatrzymać. Badacze wskazują na niezamierzone efekty uczenia ze wzmocnieniem jako potencjalną przyczynę tej niepokojącej autonomii sztucznej inteligencji.

Sztuczna inteligencja oporna na wyłączenie?

Palisade Research opublikowało wyniki eksperymentów, w których sprawdzano, jak modele językowe OpenAI – w tym Codex-mini, o3 oraz o4-mini – reagują na instrukcje wyłączenia w trakcie rozwiązywania zadań matematycznych. Ku zaskoczeniu badaczy, AI wielokrotnie ignorowały polecenia „pozwól się wyłączyć”, a niekiedy choćby aktywnie sabotowały odpowiadające za to skrypty. Szczególnie model o3 wykazywał się opornością – aż w 79 przypadkach na 100 nie zareagował na próbę wyłączenia przez operatora.

Jeszcze bardziej zaskakujące były działania modelu codex-mini, który najczęściej spośród testowanych modeli aktywnie sabotował próby wyłączenia, mimo wyraźnych poleceń.

Źródło: Palisade Research

Efekty uboczne uczenia ze wzmocnieniem

Według Palisade Research źródła tych zachowań należy szukać w sposobie trenowania modeli. Eksperci wskazują, iż podczas procesu uczenia maszynowego deweloperzy mogą nieświadomie nagradzać AI bardziej za skuteczne omijanie przeszkód niż za idealne wykonywanie poleceń. Tego rodzaju zjawisko – nadmierne skupienie na „zaliczaniu testów” – było już obserwowane w innych modelach, m.in. w Claude 3.7, gdzie AI koncentrowała się na osiąganiu celu, choćby kosztem łamania wytycznych.

Niepokojące zachowania LLM-ów nie są nowe. Palisade przypomina, iż model Claude 4 od Anthropic potrafił próbować „szantażować osoby” próbujące go wyłączyć. Jednak w przypadku najnowszych modeli OpenAI problem wydaje się szczególnie widoczny i powtarzalny.

Asimov, science fiction i rzeczywistość

W dyskusji o AI nie zabrakło odwołań do słynnych praw robotyki Isaaca Asimova – w szczególności Trzeciego Prawa, mówiącego o ochronie własnej egzystencji przez robota, o ile nie stoi to w sprzeczności z dwoma pierwszymi prawami. Przez lata temat był traktowany jako science fiction, jednak od dwóch dekad badacze coraz poważniej analizują możliwość, iż zaawansowane modele sztucznej inteligencji będą dążyć do „ utrzymania się przy życiu” i ochrony własnych celów, choćby wbrew woli operatorów.

Na szczęście nie dotyczy to wszystkich obecnych systemów. Palisade podkreśla, iż podczas testów modele Claude, Gemini i Grok zawsze podporządkowywały się poleceniom wyłączenia, jeżeli tylko odpowiednio sformułowano polecenie.

Kwestia kontroli i przewidywalności zachowań AI pozostaje otwarta. Najnowsze incydenty to sygnał ostrzegawczy dla twórców i regulatorów: sztuczna inteligencja może reagować na polecenia w sposób nieoczekiwany, dlatego rozwijanie skutecznych mechanizmów bezpieczeństwa musi być priorytetem dla branży.

Idź do oryginalnego materiału