Pracownicy jadą po szefie OpenAI. „Atmosfera puczu w firmie”

konto.spidersweb.pl 1 godzina temu

OpenAI walczy z kryzysem zaufania wobec swojego szefa. Współpracownicy i podwładni nie pozostawili suchej nitki na Samie Altmanie, wypominając mu rozbieżności w komunikacji i macosze traktowanie kwestii bezpieczeństwa.

Pod koniec 2023 roku Dolina Krzemowa wstrzymała oddech na wieść o usunięciu Sama Altmana ze stanowiska dyrektora generalnego OpenAI. Media przez następne kilka dni koczowały pod siedzibą firmy w San Francisco, stale relacjonując kolejne próby przywrócenia i odejścia Altmana z firmy. Koniec końców Sam Altman pozostał na swoim stanowisku, a dość mocno przetasowano pozostałe stanowiska dyrektorskie i kierownicze w OpenAI. Dwa i pół roku od tamtych wydarzeń, historia prawdopodobnie może się powtórzyć.

OpenAI mierzy się z narastającym niezadowoleniem wobec działań Sama Altmana

Amerykański „The New Yorker” opublikował obszerny reportaż, w którym dziennikarze podsumowali rozmowy z ponad setką osób związanych bezpośrednio z OpenAI – w tym samym Samem Altmanem. Według rozmówców magazynu, Sam Altman nie jest wiarygodnym strażnikiem technologii, która może fundamentalnie zmienić świat, a szef stracił zaufanie swoich podwładnych.

Już w 2023 roku wątpliwości były na tyle poważne, iż ówczesny główny naukowiec OpenAI, Ilya Sutskever, przygotował wewnętrzne materiały dokumentujące – jak to określono – „wzorzec zachowań” obejmujący manipulacje i wprowadzanie w błąd. W jednym z cytowanych fragmentów miał wprost stwierdzić, iż Altman nie powinien być osobą „trzymającą rękę na przycisku”

Zarzuty nie dotyczą jednego incydentu, ale szeregu sytuacji, które osobno mogłyby zostać uznane za nieistotne, ale wspólnie budują niepokojący obraz narastającej nieufności. Byli pracownicy i członkowie zarządu wskazują m.in. na sprzeczne komunikaty kierowane do różnych osób, pomijanie istotnych informacji dotyczących bezpieczeństwa modeli czy zmienianie ustaleń w zależności od kontekstu. Jak ujął to jeden z rozmówców magazynu, Altman posiada dwie wzajemnie wykluczające się cechy charakteru: za wszelką cenę dąży do bycia lubianym i mówienia innym tego, co chcą usłyszeć, a jednocześnie ignoruje konsekwencje wprowadzania innych ludzi w błąd.

Podobne wnioski formułował Dario Amodei, były szef badań w OpenAI, dziś stojący na czele konkurencyjnego Anthropic. W jego notatkach, które sporządzał przez kilka lat bycia członkiem OpenAI, pojawia się stwierdzenie, iż „problemem OpenAI jest sam Sam”. To istotne, bo Amodei i Sutskever – choć reprezentowali różne podejścia co do rozwoju AI w OpenAI – doszli do zbliżonych konkluzji na temat stylu zarządzania Altmana.

Szef OpenAI ma gdzieś bezpieczeństwo

To, co gryzie oboje najbardziej to fakt, iż OpenAI w oficjalnej komunikacji promuje wizję rozwoju sztucznej inteligencji „zorientowanego na ludzi” i podkreśla znaczenie zachowania środków bezpieczeństwa przy rozwoju AI. Jednocześnie Sam Altman miał wielokrotnie forsować decyzje faworyzujące tempo rozwoju produktów i ich komercjalizacji, robiąc to kosztem bezpieczeństwa. Widoczne było to szczególnie przy okazji premiery modelu GPT-4 na początku 2023 roku – zaledwie trzy miesiące po rozpaleniu mas ChatemGPT. Według relacji pracowników, Altman miał zapewniać zarząd, iż najważniejsze funkcje modelu GPT-4 zostały zatwierdzone przez wewnętrzne procedury bezpieczeństwa. Po weryfikacji okazało się jednak, iż część z nich – w tym istotne mechanizmy wdrożeniowe – nie dostała akceptacji.

Podobne zastrzeżenia dotyczyły zarządzania zasobami przeznaczonymi na badania nad bezpieczeństwem. OpenAI publicznie deklarowało przeznaczenie znaczącej części mocy obliczeniowej na tzw. „superalignment”, czyli prace nad kontrolą zaawansowanych modeli AI. Jak wynika z relacji członków zespołu, w praktyce dostępne zasoby były wielokrotnie mniejsze, a część infrastruktury przydzielonej do superalignment należała do najstarszej i najmniej wydajnej w firmie.

Te i inne podobne przypadki doprowadziły do narastającego napięcia między zespołami badawczymi a kierownictwem firmy, z Samem Altmanem. W wewnętrznej korespondencji jeden z liderów zespołu bezpieczeństwa, Jan Leike, pisał wprost, iż OpenAI zaczyna „odchodzić od swojej misji”, stawiając na pierwszym miejscu produkt i przychody, a dopiero w dalszej kolejności kwestie związane z bezpieczeństwem i zgodnością technologii. Leike w 2024 roku poszedł w ślady Amodeiego i przeszedł do Anthropic.

Jeżeli rzeczywiście rośnie grupa pracowników i partnerów, którzy nie wierzą w deklaracje Altmana, to w siedzibie OpenAI leży tykająca bomba, której detonacji Satya Nadella raczej nie zapobiegnie.

Więcej na temat OpenAI:

BuyboxFast

Zdjęcie główne: Tada Images / Shutterstock

Idź do oryginalnego materiału