Miles Brundage, starszy doradca OpenAI ds. gotowości AGI (inaczej sztucznej inteligencji na poziomie ludzkim), ogłaszając swoje odejście w środę, wydał surowe ostrzeżenie: nikt nie jest przygotowany na sztuczną inteligencję ogólną, w tym samo OpenAI.
„Ani OpenAI, ani żadne inne laboratorium pionierskie nie jest gotowe [for AGI]a świat też nie jest gotowy” – napisał Brundage, który spędził sześć lat pomagając w kształtowaniu firmowych inicjatyw w zakresie bezpieczeństwa sztucznej inteligencji. „Żeby było jasne, nie sądzę, iż jest to kontrowersyjne oświadczenie kierownictwa OpenAI, a w szczególności jest to inna kwestia niż to, czy firma i świat są na dobrej drodze, aby być gotowym we właściwym czasie.”
Jego odejście jest najnowszym z serii głośnych odejścia z zespołów ds. bezpieczeństwa OpenAI. Jan Leike, wybitny badacz, opuścił po złożeniu wniosku iż „kultura i procesy bezpieczeństwa zeszły na dalszy plan w stosunku do błyszczących produktów”. Współzałożyciel Ilya Sutskever również odszedł, aby założyć własny startup AI skupiający się na bezpiecznym rozwoju AGI.
Rozwiązanie zespołu „AGI Readiness” Brundage następuje zaledwie kilka miesięcy po firmie rozwiązał swój zespół „Superalignment”. poświęcony długoterminowemu łagodzeniu ryzyka związanego ze sztuczną inteligencją, podkreśla rosnące napięcie między pierwotną misją OpenAI a jej ambicjami komercyjnymi. Firma podobno spotyka się z presją w ciągu dwóch lat przekształcić się z organizacji non-profit w spółkę pożytku publicznego nastawioną na zysk – w przeciwnym razie zaryzykuje zwrot środków z ostatniej rundy inwestycyjnej o wartości 6,6 miliarda dolarów. Ta zmiana w kierunku komercjalizacji od dawna niepokoi Brundage, który wyraził zastrzeżenia już w 2019 roku kiedy OpenAI po raz pierwszy utworzyło swój oddział nastawiony na zysk.
Wyjaśniając swoje odejście, Brundage przytoczył rosnące ograniczenia wolności badań i publikacji w tej znanej firmie. Podkreślił potrzebę niezależnych głosów w dyskusjach na temat polityki AI, wolnych od uprzedzeń branżowych i konfliktów interesów. Doradzając kierownictwu OpenAI w zakresie gotowości wewnętrznej, wierzy, iż teraz może wywrzeć większy wpływ na globalne zarządzanie sztuczną inteligencją spoza organizacji.
To odejście może również odzwierciedlać głębszy podział kulturowy w OpenAI. Wielu badaczy przyłączyli się, aby rozwijać badania nad sztuczną inteligencją i w tej chwili znajdują się w środowisku w coraz większym stopniu zorientowanym na produkty. Wewnętrzna alokacja zasobów stała się punktem zapalnym — raporty wskazują iż zespołowi Leike’a odmówiono mocy obliczeniowej do badań nad bezpieczeństwem przed jego ostatecznym rozwiązaniem.
Pomimo tych tarć Brundage zauważył, iż OpenAI zaoferowało wsparcie jego przyszłej pracy w postaci funduszy, kredytów API i wcześniejszego dostępu do modeli, bez żadnych zobowiązań.