W obszernym wpisie na platformie X CEO OpenAI, Sam Altman, zapowiedział, iż firma rozważa bezpośrednią sprzedaż mocy obliczeniowej innym firmom i osobom prywatnym. “Szukamy sposobów na bardziej bezpośrednią sprzedaż mocy obliczeniowej innym firmom (i osobom); jesteśmy całkiem pewni, iż świat będzie potrzebował dużo ‘AI cloud’ i jesteśmy podekscytowani możliwością jego oferowania” – napisał Altman, sygnalizując potencjalnie rewolucyjną zmianę w strategii firmy.
Deklaracja Altmana oznacza, iż OpenAI zamierza przekształcić się z konsumenta usług chmurowych w ich pełnoprawnego dostawcę, co postawiłoby startup w bezpośredniej konkurencji z gigantami takimi jak Microsoft Azure, Amazon Web Services (AWS) i Google Cloud Platform. Do tej pory OpenAI w dużej mierze polegało na infrastrukturze Microsoft Azure do zasilania swoich produktów, w tym ChatGPT i szeroko stosowanych API. Jednak najnowsze komentarze sugerują przyszłość, w której OpenAI będzie sprzedawać moc obliczeniową, zamiast tylko ją konsumować.
We wpisie, który był głównie odpowiedzią na kontrowersje wokół komentarzy jego dyrektor finansowej Sarah Friar dotyczących pożyczek wspieranych przez rząd, Altman ujawnił również najważniejsze dane finansowe. OpenAI spodziewa się zakończyć 2025 rok z rocznym przychodem przekraczającym 20 miliardów dolarów i planuje wzrost do setek miliardów do 2030 roku. Firma zaangażowała się w zobowiązania infrastrukturalne o wartości około 1,4 biliona dolarów na kolejne 8 lat, w tym ostatnio ogłoszoną wieloletnią strategiczną współpracę z AWS wartą 38 miliardów dolarów.
Wejście na rynek chmury obliczeniowej miałoby sens dla OpenAI z kilku powodów. Obecni użytkownicy ChataGPT Plus już napotykają limity użytkowania przy dostępie do funkcji wymagających dużej mocy obliczeniowej, takich jak generowanie obrazów czy zaawansowane modele rozumowania. Poprzez kontrolowanie własnych centrów danych, OpenAI może wyeliminować te wąskie gardła, jednocześnie zmniejszając zależność od zewnętrznych dostawców chmurowych. Co więcej, wynajmowanie mocy obliczeniowej, chipów AI i pojemności centrów danych innym firmom mogłoby pomóc w odzyskaniu części kosztów inwestycji – model, który już sprawdza się u Microsoft, Amazon i Google, ale którego OpenAI w tej chwili nie posiada. Jak zauważyła Sarah Friar we wrześniu, dostawcy chmurowi “uczą się na koszt OpenAI”, co sugeruje, iż firma chce chronić swoją wiedzę AI przed gigantami technologicznymi.








