Wizja umieszczenia centrów danych AI na orbicie, lansowana przez takich wizjonerów jak Elon Musk czy Jeff Bezos, doczekała się chłodnej oceny ze strony szefa OpenAI. Sam Altman, podczas konferencji prasowej zorganizowanej przez The Indian Express, określił pomysł budowy orbitalnych serwerowni w obecnych realiach mianem „niedorzecznego”.
Zdaniem Altmana, choć przestrzeń kosmiczna oferuje teoretycznie nieograniczone zasoby energii słonecznej i brak ziemskich regulacji, rzeczywistość technologiczna stawia twarde bariery. Pierwszą, oczywistą, jest logistyka. Wyniesienie 800 kg ładunku na niską orbitę okołoziemską (LEO) rakietą SpaceX to koszt rzędu 5,6 mln dolarów. Tymczasem pojedyncza szafa serwerowa Nvidia NVL72 GB200 waży choćby blisko 1,5 tony – i to bez uwzględnienia systemów chłodzenia oraz zasilania. Altman zwrócił też uwagę na problem naprawy sprzętu w kosmosie. Układy GPU wciąż ulegają częstym awariom, a serwisowanie ich na orbicie jest w tej chwili niemożliwe.
Nieco mniej oczywistą jest fakt promieniowania w przestrzeni kosmicznej. Nowoczesne procesory nie są odporne na radiację. Obecna technologia pozwalająca na pracę w kosmosie opiera się na przestarzałych rozwiązaniach (np. 90 nm), które nie oferują wydajności potrzebnej dla zaawansowanej sztucznej inteligencji.
Mimo krytyki obecnych planów, lider OpenAI nie wyklucza, iż koncepcja ta zyska na znaczeniu w przyszłości. Zaznaczył jednak wyraźnie, iż orbitalne centra danych nie będą miały istotnego znaczenia komercyjnego w bieżącej dekadzie.
Zanim serwerownie trafią w kosmos, branża musi opracować nie tylko nowe technologie produkcji mikroelektroniki odpornej na promieniowanie, ale także wydajne systemy chłodzenia i generowania mocy zdolne zasilić miliony akceleratorów AI. Na ten moment przewagę w badaniach nad taką infrastrukturą mają firmy kosmiczne, jak SpaceX czy Blue Origin, co tłumaczy entuzjazm ich właścicieli.









