OpenAI ostro wyraziło swoje stanowisko względem chińskiego modelu AI, DeepSeek. W przesłanym do Biura Polityki Naukowej i Technologicznej (Office of Science and Technology Policy) dokumencie, firma otwarcie wezwała rząd USA do zakazu stosowania tego narzędzia w instytucjach rządowych, wojsku oraz służbach wywiadowczych.
DeepSeek w ogniu krytyki
W piśmie, podpisanym przez Chrisa Lehane’a, wiceprezesa ds. globalnych OpenAI, DeepSeek został określony jako „subsydiowany przez państwo” i „kontrolowany przez państwo”. OpenAI sugeruje również, by zakazać używania sprzętu produkowanego przez Chiny, takiego jak chipy Huawei Ascend, oraz modeli stwarzających zagrożenie dla prywatności użytkowników, na przykład wykradanie własności intelektualnej, zwłaszcza w krajach określanych jako Tier 1.
Nie jest tajemnicą, iż postępy DeepSeek, które oferują podobną funkcjonalność do modelu ChatGPT o1 w niższej cenie, wywołały zamieszanie na rynku. W rezultacie akcje firm mocno inwestujących w AI odnotowały spadek, mimo iż rynek gwałtownie się zregenerował. Wiele pytań dotyczących metodyki treningowej DeepSeek pozostaje bez odpowiedzi, a wątpliwości budzi np. fakt, iż model AI czasami przyjmuje tożsamość ChatGPT, gdy zostanie o to zapytany.
Obawy OpenAI i AGI
OpenAI podkreśla, iż zbliżamy się do ery sztucznej ogólnej inteligencji (AGI), co wiąże się ze znaczącymi perspektywami dla przyszłości, ale również z zagrożeniami. Firma, od momentu swojego powstania, dąży do realizacji AGI, ale podkreśla konieczność ochrony tej technologii przed autorytatywnymi siłami i zbytnimi obciążeniami prawnymi. W liście od OpenAI czytamy: „Musimy zapewnić ludziom wolność dostępu do AGI i ochronić ich przed autorytatywnymi siłami, które mogłyby ograniczać ich wolności”.
Choć nie ma konkretnych dowodów na kontrolę DeepSeek przez chiński rząd, zauważono, iż DeepSeek-R1 unika odpowiadania na pytania dotyczące wrażliwych dla Chińskiej Republiki Ludowej tematów, takich jak protesty na placu Tiananmen. Te obawy i problemy związane z potencjalnym wykorzystaniem DeepSeek w infrastrukturze krytycznej skłaniają OpenAI do działania na rzecz większej kontroli nad implementacją AI.