OpenAI jest obciążone problemami bezpieczeństwa

cyberfeed.pl 2 miesięcy temu


OpenAI jest liderem w wyścigu o rozwój AI tak inteligentnej jak człowiek. Mimo to pracownicy przez cały czas pojawiają się w prasie i w podcastach aby wyrazić swoje poważne obawy dotyczące bezpieczeństwa w 80-miliardowym laboratorium badawczym non-profit. Najnowsze pochodzi z The Washington Postgdzie anonimowe źródło twierdziło, iż OpenAI pośpieszyło się z testami bezpieczeństwa i chwaliło swój produkt, zanim zapewniło jego bezpieczeństwo.

„Zaplanowali imprezę po starcie, zanim dowiedzieli się, czy start jest bezpieczny” – powiedział anonimowy pracownik The Washington Post„W zasadzie zawiedliśmy w tym procesie”.

Kwestie bezpieczeństwa są bardzo ważne w OpenAI — i wydaje się, iż wciąż narastają. Obecni i byli pracownicy OpenAI niedawno podpisał list otwarty domagając się lepszych praktyk bezpieczeństwa i przejrzystości od startupu, niedługo po rozwiązaniu jego zespołu ds. bezpieczeństwa po odejściu współzałożyciela Ilyi Sutskevera. Jan Leike, najważniejszy badacz OpenAI, zrezygnował niedługo potemtwierdząc we wpisie, iż „w firmie kultura i procesy bezpieczeństwa zeszły na dalszy plan w porównaniu z błyszczącymi produktami”.

Bezpieczeństwo jest podstawą OpenAI czarterz klauzulą, która twierdzi, iż OpenAI pomoże innym organizacjom w poprawie bezpieczeństwa, jeżeli AGI zostanie osiągnięte u konkurenta, zamiast kontynuować rywalizację. Twierdzi, iż jest oddany rozwiązywaniu problemów bezpieczeństwa inherentnych dla tak dużego, złożonego systemu. OpenAI choćby utrzymuje swoje zastrzeżone modele prywatne, a nie otwarte (powodując ukłucia I pozwy sądowe), ze względu na bezpieczeństwo. Ostrzeżenia sprawiają wrażenie, jakby bezpieczeństwo zostało odsunięte na dalszy plan, mimo iż jest tak ważne dla kultury i struktury firmy.

Oczywiste jest, iż OpenAI jest na fali wznoszącej, ale same działania public relations nie wystarczą, aby chronić społeczeństwo

„Jesteśmy dumni z naszych osiągnięć w dostarczaniu najbardziej wydajnych i najbezpieczniejszych systemów AI i wierzymy w nasze naukowe podejście do radzenia sobie z ryzykiem” – powiedziała rzeczniczka OpenAI Taya Christianson w oświadczeniu dla Skraj„Rygorystyczna debata jest krytyczna, biorąc pod uwagę znaczenie tej technologii, i będziemy przez cały czas współpracować z rządami, społeczeństwem obywatelskim i innymi społecznościami na całym świecie w służbie naszej misji”.

Stawki dotyczące bezpieczeństwa, według OpenAI i innych badaczy wschodzącej technologii, są ogromne. „Obecny rozwój pionierskiej AI stwarza pilne i rosnące ryzyko dla bezpieczeństwa narodowego” – raport zlecone przez Departament Stanu USA w marcu powiedział. „Wzrost zaawansowanej AI i AGI [artificial general intelligence] ma potencjał destabilizacji globalnego bezpieczeństwa w sposób przypominający wprowadzenie broni jądrowej”.

Sygnały alarmowe w OpenAI również podążają za zamach stanu w zarządzie w zeszłym roku który na krótko odsunął od stanowiska CEO Sama Altmana. Zarząd stwierdził, iż został on usunięty z powodu „braku konsekwentnej szczerości w komunikacji”, prowadząc do śledztwa nie uspokoiło to jednak personelu.

Rzeczniczka OpenAI Lindsey Held powiedziała: Post start GPT-4o „nie oszczędzał” na bezpieczeństwie, ale inny anonimowy przedstawiciel firmy przyznał, iż harmonogram przeglądu bezpieczeństwa został skrócony do jednego tygodnia. „Przemyślamy cały nasz sposób działania” – powiedział anonimowy przedstawiciel Post. “Ten [was] po prostu nie jest to najlepszy sposób, aby to zrobić.”

Czy wiesz więcej o tym, co dzieje się w OpenAI? Chętnie porozmawiam. Możesz się ze mną bezpiecznie skontaktować na Signal @kylie.01 lub przez e-mail kylie@theverge.com.

W obliczu ciągłych kontrowersji (pamiętaj ten Jej incydent?), OpenAI próbowało rozwiać obawy kilkoma dobrze wyczutymi ogłoszeniami. W tym tygodniu ogłoszony współpracuje z Los Alamos National Laboratory, aby zbadać, w jaki sposób zaawansowane modele AI, takie jak GPT-4o, mogą bezpiecznie pomagać w badaniach bionaukowych, a w tym samym ogłoszeniu wielokrotnie wskazywał na własne wyniki bezpieczeństwa Los Alamos. Następnego dnia anonimowy rzecznik powiedział Bloomberg iż OpenAI utworzono wewnętrzną skalę do śledzenia postępów Jej duże modele językowe zmierzają w kierunku sztucznej inteligencji ogólnej.

Tegoroczne ogłoszenia OpenAI dotyczące bezpieczeństwa wydają się być defensywnym przykrywką w obliczu rosnącej krytyki praktyk bezpieczeństwa. Oczywiste jest, iż OpenAI jest na gorącym krześle — ale same działania public relations nie wystarczą, aby chronić społeczeństwo. To, co naprawdę się liczy, to potencjalny wpływ na tych poza bańką Doliny Krzemowej, jeżeli OpenAI przez cały czas nie będzie rozwijać AI z rygorystycznymi protokołami bezpieczeństwa, jak twierdzą wewnętrzni: przeciętny człowiek nie ma nic do powiedzenia w kwestii rozwoju sprywatyzowanego AGI, a mimo to nie ma wyboru, jak bardzo będzie chroniony przed dziełami OpenAI.

„Narzędzia AI mogą być rewolucyjne” – powiedziała przewodnicząca FTC Lina Khan powiedział Bloomberg w listopadzie. Ale „w tej chwili” — powiedziała — istnieją obawy, iż „krytyczne dane wejściowe tych narzędzi są kontrolowane przez stosunkowo niewielką liczbę firm”.

Jeśli liczne zarzuty wobec ich protokołów bezpieczeństwa są prawdziwe, z pewnością rodzi to poważne pytania o przydatność OpenAI do tej roli zarządcy AGI, roli, którą organizacja zasadniczo sobie przypisała. Pozwolenie jednej grupie w San Francisco na kontrolowanie technologii potencjalnie zmieniającej społeczeństwo jest powodem do obaw, a choćby w jej własnych szeregach istnieje pilne zapotrzebowanie na przejrzystość i bezpieczeństwo teraz bardziej niż kiedykolwiek.



Source link

Idź do oryginalnego materiału