Czy AI jest niebezpieczna? List w intencji ochrony „sygnalistów”

kapitanhack.pl 5 miesięcy temu

Pytanie, czy sztuczna inteligencja jest bezpieczna, jest od jakiegoś czasu w ustach wszystkich. Niedawno w książce „Góra pod morzem” Raya Naylera natknąłem się na interesujący fragment (przywołuję z pamięci): „Przed wynalezieniem samolotów nie było wypadków lotniczych, a przed wynalezieniem samochodów wypadków motoryzacyjnych. Nowe technologie zawsze niosą nowe wyzwania”. Czy jednak oznacza to, iż dyskusje o bezpieczeństwie sztucznej inteligencji mogą być ucinane…?

W opublikowanym we wtorek 4 czerwca liście otwartym zaadresowanym do firm technologicznych postuluje się ustanowienie silniejszej ochrony sygnalistów, aby badacze mogli zgłaszać obawy dotyczące rozwoju wysokowydajnych systemów sztucznej inteligencji wewnętrznie i wśród opinii publicznej bez obawy przed reperkusjami.

Były pracownik OpenAI Daniel Kokotajlo, który odszedł z firmy na początku tego roku, stwierdził w pisemnym oświadczeniu, iż firmy technologiczne „lekceważą ryzyko i wpływ sztucznej inteligencji”, ścigając się w opracowywaniu systemów, które będą sprawniejsze niż człowiek, określanych w liście jako „sztuczna inteligencja ogólna”.

„Zdecydowałem się opuścić OpenAI, ponieważ straciłem nadzieję, iż będą działać odpowiedzialnie, zwłaszcza jeżeli zajmują się sztuczną inteligencją ogólną” – napisał. „Oni i inni przyjęli podejście «działaj gwałtownie i niszcz wszystko», co jest przeciwieństwem adekwatnego podejścia w przypadku tak potężnej i słabo poznanej technologii”.

W oświadczeniu będącym odpowiedzią na powyższy list OpenAI stwierdziło, iż dysponuje już środkami umożliwiającymi pracownikom wyrażanie obaw, w tym anonimową „infolinią ds. uczciwości”.

„Jesteśmy dumni z naszego doświadczenia w dostarczaniu najbardziej wydajnych i najbezpieczniejszych systemów sztucznej inteligencji i wierzymy w nasze naukowe podejście do rozwiązywania problemów” – stwierdzono w oświadczeniu firmy. „Zgadzamy się, iż rygorystyczna debata ma najważniejsze znaczenie, biorąc pod uwagę znaczenie tej technologii, i będziemy przez cały czas współpracować z rządami, społeczeństwem obywatelskim i innymi społecznościami na całym świecie”.

List ma 13 sygnatariuszy, z których większość to byli pracownicy OpenAI i dwoje, którzy pracują lub pracowali dla DeepMind od Google. Czworo z nich to anonimowi obecni pracownicy OpenAI. W liście postuluje się do firm AI, aby zaprzestały zmuszania pracowników do zawierania porozumień o niedyskredytowaniu oraz nakładania na nich kar w przypadku krytykowania firmy.

Oburzenie w mediach społecznościowych wywołane językiem w prawnej dokumentacji OpenAI dotyczącej odchodzących pracowników doprowadziło ostatnio firmę do zwolnienia wszystkich byłych pracowników z umów o zakazie dyskredytowania.

List otwarty zyskał poparcie pionierskich naukowców zajmujących się sztuczną inteligencją, Yoshua Bengio i Geoffreya Hintona, którzy wspólnie zdobyli najwyższą nagrodę w dziedzinie informatyki, czyli Nagrodę Turinga. Dołączył do nich Stuart Russell – brytyjski informatyk, ekspert w dziedzinie sztucznej inteligencji. Wszyscy trzej ostrzegali przed zagrożeniami, jakie przyszłe systemy sztucznej inteligencji mogą stanowić dla istnienia ludzkości.

List pojawił się po tym, jak OpenAI oświadczyło, iż rozpoczyna rozwój nowej generacji technologii sztucznej inteligencji stojącej za ChatGPT i tworzy nowy komitet ds. bezpieczeństwa. Zbiegł się również w czasie z odejściami z firmy grupy liderów, w tym współzałożyciela Ilyi Sutskevera, którzy byli częścią zespołu skupionego na bezpieczeństwie produkcji najpotężniejszych systemów sztucznej inteligencji. Szeroka społeczność badaczy sztucznej inteligencji od dawna wskazuje na wagę krótko i długoterminowych zagrożeń związanych ze sztuczną inteligencją oraz na to, jak pogodzić ryzyko z komercjalizacją technologii. To, iż w OpenAI pojawiają się konflikty, wiadomo nie od dziś. O odejściu i jeszcze szybszym powrocie dyrektora generalnego Sama Altmana w zeszłym roku pisaliśmy tutaj.

Listy i publikacje w mediach społecznościowych dalej wskazują na brak zaufania do jego przywództwa.

Niedawno prezentacja nowego produktu rozsierdziła hollywoodzką gwiazdę Scarlett Johansson, która stwierdziła, iż była zszokowana, gdy usłyszała, iż głos ChatGPT brzmiał „niesamowicie podobnie” do jej własnego, mimo iż wcześniej odrzuciła prośbę Altmana o użyczenie swojego głosu w systemie. Takie działania na pewno nie przysporzą OpenAI entuzjastów i kolejny raz wzbudzą dyskusje o zakresie działania i regulacjach dla generatywnej AI.

Idź do oryginalnego materiału