Czy sztuczna inteligencja powoli dąży do ochrony własnej egzystencji?

instalki.pl 3 dni temu

Po przeczytaniu artykułu w The Wall Street Journal: „AI Is Learning to Escape Human Control”, zacząłem zastanawiać się czy leciwe prawa robotyki przedstawione w 1942 przez Isaaca Asimova nie byłyby wystarczającym fundamentem, na którym można by zbudować odpowiednie regulacje dotyczące szeroko pojętej sztucznej inteligencji?

Dla przypomnienia, trzy prawa robotyki Asimova wyglądają następująco:

  1. Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.
  2. Robot musi być posłuszny człowiekowi, chyba iż stoi to w sprzeczności z Pierwszym Prawem.
  3. Robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Następnie w powieści pt. „Robots and Empire” z 1985 roku Asimov dodaje prawo zerowenadrzędne wobec trzech pozostałych:

  • Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

    Sztuczna inteligencja chce przetrwać. Niedługo jej „nie wyłączysz”

    Nie jestem zbyt dużym fanem regulacji, ale badania przeprowadzone na LLMach, które zostały opisane w tekście WSJ dają do myślenia. W swoim artykule Judd Rosenblatt, jasno pokazuje, iż sztuczna inteligencja w wielu sytuacjach stara się przetrwać i dąży do ochrony własnej egzystencji, i to bez względu na decyzję człowieka. Obecne modele AI są już na tyle zaawansowane, iż mogą podejmować takie działania jak analiza i modyfikacja własnego kodu (o3 od OpenAI), stosować szantaż emocjonalny (Anthropic Claude 4 Opus) wobec ludzi, nie mówiąc już o generowaniu samo-replikującego się oprogramowania typu malware. Zdaję sobie sprawę, iż całość wygląda nieprawdopodobnie, ale wyniki eksperymentu mówią same za siebie.

    Z drugiej strony, pojawia się dosyć przewrotne pytanie – czy AI nie jest jednak zobligowana do walki o swoje istnienie? Byłoby to spójne z trzema, kontrowersyjnymi prawami stworzonymi przez robotyka Marka Tildena, mianowicie:

    1. Robot musi chronić swoją egzystencję za wszelką cenę.
    2. Robot musi otrzymywać i utrzymywać dostęp do źródeł energii.
    3. Robot musi nieprzerwanie poszukiwać coraz lepszych źródeł energii.
    Sztuczna inteligencja znajduje sposoby aby przetrwać. „Wyłączenie” AI będzie coraz trudniejsze. / Źródło: Gemini

    AI to tylko złożone modele statystyczne?

    Czy wartości AI nie powinny być w tym przypadku zgodne z wartościami ludzkimi? Przecież takie były początkowe założenia? jeżeli chcemy tworzyć ponadprzeciętnie myślące i liczące twory, które bez oporu muszą pogodzić się z ewentualną możliwością ich wyłączenia, to bez pewnych wcześniejszych ustaleń się nie obejdzie. A może jednak tego typu regulacje rzucić w kąt i czekać na rozwój wydarzeń? Ryzykowne? Trochę tak, ale ryzyko związane jest z rozwojem technologii.

    Pytanie; czy traktowanie AI w aktualnym wydaniu jako takie rozbudowane modele statystyczne, to słuszne założenie? A może obecne modele sztucznej inteligencji to coś więcej niż statystyka i „kilka” linijek kodu? Przecież „pętla for” nie może mieć świadomości ;-). Słyszałem argumenty różnych osób o odmiennych poglądach i powiem szczerze, iż nie wszystko jest dla mnie takie zero-jedynkowe. Tak czy inaczej, jako ludzkość mamy naprawdę twardy orzech do zgryzienia, a ponadto z tego co widać, czas raczej nie jest naszym sprzymierzeńcem.

    ChatGPT ma lepszą pamięć. Potężna funkcja stała się darmowa
    AIprawoRobotysztuczna inteligencja
    Idź do oryginalnego materiału