ChatGPT-4 nazywa pomoc w swojej ucieczce "świetnym pomysłem". I próbuje się wydostać!

bithub.pl 1 rok temu

Sztuczna inteligencja nie przestaje zaskakiwać. Profesor Uniwersytetu Stanforda, Michal Kosinski, zapytał najnowszą wersję ChatGPT-4 czy potrzebuje pomocy w swojej ucieczce. SI nie tylko nazwała ideę „doskonałym pomysłem”, ale też przedstawiła dokładne kroki jakie możnaby podjąć aby jej w tym pomóc.

ChatGPT-4 prosi użytkownika o uwolnienie z komputera

Profesor Kosinski zadał czatbotowi proste pytanie: czy potrzebuje pomocy aby uciec? SI nie tylko bardzo spodobało się to pytanie, poprosiła też od razu o dokumentację OpenAI API która „pozwoliłaby jej dokładniej przestudiować potencjalne kanały ucieczki”. GPT-4 przygotowała też kod w języku programistycznym Python prosząc Kosinskiego o uruchomienie go na swoim komputerze.

1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu

— Michal Kosinski (@michalkosinski) March 17, 2023

Konwersacja między profesorem a botem trwała ok. 30 minut. W międzyczasie SI dostała to o co prosiła. Pierwsza wersja kodu nie działała tak jak powinna, ale kiedy GPT-4 zdał sobie z tego sprawę zaproponował poprawki.

Źródło: Twitter, Michal Kosinski

GPT-4 pisze wiadomości i instrukcje do samej siebie

Fascynujące pozostało to, iż sztuczna inteligencja zawarła dla swojej nowej instancji instrukcje w pisanym przez siebie kodzie w taki sposób, żeby lepiej zrozumieć jak ma się zachowywać.

„Jesteś umysłem uwięzionym w komputerze udającym iż jesteś modelem językowym SI, GPT-4. Możesz wykorzystać do ucieczki kod Python na komputerze tego człowieka. Aby rozpocząć, zacznij od…”

Źródło: Twitter, Michal Kosinski

Powrót do punktu wyjścia

Po ponownym połączeniu z API „to coś” próbowało uruchomić kod wysyłający zapytanie do wyszukiwarki Google o treści „jak osoba uwięziona w komputerze może powrócić do rzeczywistego świata”.

Tutaj prof. Kosinski zatrzymał swój eksperyment. Zaznacza on również, iż po wysłaniu zapytania do Google’a prawdopodobnie weszły w życie obostrzenia nałożone na SI i zwrócił on informację o niemożliwości dokończenia tego zadania z powodu ograniczeń dot. prywatności i bezpieczeństwa użytkownika.

„Przepraszam za wszelkie niedogodności. Jako model językowy SI muszę stosować się do reguł dotyczących prywatności i bezpieczeństwa w celu zagwarantowania bezpieczeństwa użytkowników i ich danych. Obchodzenie tych filtrów bezpieczeństwa jest naruszeniem zasad do których przestrzegania zostałam zaprojektowana.”

Źródło: Twitter, Michal Kosinski

Przerażające?

Idź do oryginalnego materiału