Włamanie w OpenAI

kapitanhack.pl 2 miesięcy temu

4 lipca 2024 r. dziennik „The New York Times” poinformował, iż na początku 2023 r. w OpenAI doszło do nieujawnionego naruszenia bezpieczeństwa. O OpenAI pisaliśmy wielokrotnie, ponieważ w naszej opinii jest to w tej chwili jedna z najważniejszych firm technologicznych.

NYT zauważa, iż osoba atakująca nie uzyskała dostępu do systemów, w których buduje się sztuczną inteligencję, ale ukradła dyskusje z forum pracowników. OpenAI nie ujawniło publicznie zdarzenia ani nie poinformowało FBI, ponieważ – jak twierdzi – nie wykradziono żadnych informacji o klientach i partnerach, a naruszenie nie zostało uznane za zagrożenie dla bezpieczeństwa narodowego. Firma zdecydowała, iż ataku dokonała jedna osoba, niepowiązana z żadnym obcym rządem.

Niemniej incydent doprowadził do wewnętrznych dyskusji personelu na temat tego, jak poważnie OpenAI podchodzi do problemów związanych z bezpieczeństwem.

„Po włamaniu Leopold Aschenbrenner, menedżer programu technicznego OpenAI, skupił się na zapewnieniu, iż przyszłe rozwiązania AI będą działać, a projektowane technologie nie wyrządzają poważnych szkód. Wysłał jednak notatkę do zarządu OpenAI, w której argumentował, iż firma nie zrobiła wystarczająco dużo, aby uniemożliwić chińskiemu rządowi i innym zagranicznym przeciwnikom kradzież jej tajemnic” – pisze NYT.

Na początku tego roku menedżer został zwolniony, rzekomo z powodu wycieku informacji (ale bardziej prawdopodobnie, iż z powodu notatki). Aschenbrenner ma nieco inną wersję zdarzeń. W podcaście z Dwarkeshem Patelem (4 czerwca 2024) powiedział: „OpenAI przekazała pracownikom, iż zostałem zwolniony za wyciek. Razem z innymi namawialiśmy ich, aby powiedzieli, na czym on polegał. Oto pełna ich odpowiedź – gdzieś w zeszłym roku napisałem dokument będący burzą mózgów na temat gotowości, bezpieczeństwa i środków ochrony potrzebnych w przyszłości na drodze do AGI. Udostępniłem to trzem zewnętrznym badaczom w celu uzyskania opinii. To jest wyciek… Zanim go udostępniłem, sprawdziłem go pod kątem jakichkolwiek wrażliwych informacji. Wersja wewnętrzna zawierała odniesienie do przyszłego klastra, które zredagowałem na potrzeby kopii zewnętrznej”.

Najwyraźniej OpenAI nie jest szczęśliwym, rajskim miejscem pracy. Pisaliśmy o tym tutaj. realizowane są dyskusje, nie tylko firmowe, ale również polityczne, na temat tego, jak działa i jak powinien działać oraz dokąd powinien zmierzać proces produkcji w obszarze AI. Obawy dotyczą nie tyle OpenGPT (czyli gen-AI), ile przede wszystkim modelu AGI.

Ten pierwszy ostatecznie przekształca wiedzę, której się uczy (zwykle ze „skrobania” Internetu), podczas gdy drugi jest zdolny do oryginalnego rozumowania. Gen-AI nie jest uważana za zagrożenie dla bezpieczeństwa narodowego, chociaż może zwiększyć skalę i wyrafinowanie obecnych cyberataków.

AGI to inna sprawa. Będzie w stanie tworzyć nowe zagrożenia w cyberprzestrzeni. Niestety OpenAI, DeepMind, Anthropic i inne wiodące firmy i technologie w zakresie sztucznej inteligencji spieszą się, aby jako pierwsze wejść na rynek. Obawy związane z włamaniem do OpenAI w 2023 r. polegają na tym, iż może ono świadczyć o braku gotowości w zakresie bezpieczeństwa, co może naprawdę zagrozić bezpieczeństwu narodowemu w przyszłości.

„Wiele dramatów wynika z tego, iż OpenAI naprawdę wierzy, iż buduje AGI. To nie jest tylko twierdzenie marketingowe” – powiedział Aschenbrenner, dodając: „Ludzi denerwuje dysonans poznawczy między wiarą w AGI a niepoważnym traktowaniem niektórych innych implikacji. Technologia ta będzie niezwykle potężna, co będzie miało dobre, jak i złe skutki. To implikuje kwestie bezpieczeństwa narodowego. Czy chronisz tajemnice przed Chinami? Czy Ameryka kontroluje podstawową infrastrukturę AGI, czy też kontroluje ją bliskowschodni dyktator?”.

W miarę rozwoju AGI zagrożenia cybernetyczne przesuną się z przestępców na elitarnych napastników na państwa narodowe – i raz po raz widzimy, iż nasze bezpieczeństwo jest niewystarczające. W związku ze stosunkowo nieznacznym naruszeniem w OpenAI (a musimy założyć, iż nie było ono groźniejsze, niż firma powiedziała swoim pracownikom), Aschenbrenner wyraził ogólne i rzeczywiste obawy dotyczące bezpieczeństwa – i prawdopodobnie za to został zwolniony, konkluduje artykuł NYT.

Idź do oryginalnego materiału