OpenAI i Amazon Web Services zawarły wieloletnią umowę strategiczną o wartości 38 mld USD. Partnerstwo zapewni firmie Altmana dostęp do najnowszej infrastruktury AWS, obejmującej setki tysięcy procesorów graficznych NVIDIA i możliwość skalowania mocy do dziesiątek milionów rdzeni CPU.
Firmy Amazon Web Services (AWS) i OpenAI ogłosiły strategiczne, wieloletnie porozumienie, które umożliwi uruchamianie i skalowanie kluczowych obciążeń sztucznej inteligencji z wykorzystaniem infrastruktury AWS. Wartość umowy szacowana jest na 38 mld USD, a jej realizacja będzie rozwijana przez kolejne siedem lat.
Na mocy porozumienia OpenAI otrzyma natychmiastowy dostęp do zaawansowanej infrastruktury obliczeniowej AWS, obejmującej setki tysięcy nowoczesnych procesorów graficznych NVIDIA oraz możliwość rozszerzenia mocy do dziesiątek milionów rdzeni CPU. Docelowo cała planowana pojemność ma zostać uruchomiona do końca 2026 roku, z opcją dalszej rozbudowy po 2027 roku.
Według AWS, infrastruktura została zaprojektowana z myślą o maksymalnej wydajności i efektywności przetwarzania danych. Kluczowym elementem będą serwery Amazon EC2 UltraServers, które umożliwiają łączenie układów NVIDIA GB200 i GB300 w wysokowydajne klastry o niskich opóźnieniach. Dzięki temu OpenAI będzie mogła obsługiwać zarówno procesy uczenia kolejnych generacji modeli, jak i wykonywanie zadań w czasie rzeczywistym, od obsługi zapytań w ChatGPT po trenowanie nowych modeli agentowych.
„Skalowanie sztucznej inteligencji wymaga ogromnych, niezawodnych mocy obliczeniowych. Nasze partnerstwo z AWS wzmacnia szeroki ekosystem obliczeniowy, który zasili kolejną erę zaawansowanej AI” – powiedział Sam Altman, współzałożyciel i dyrektor generalny OpenAI.
Z kolei Matt Garman, prezes AWS, podkreślił – „W miarę jak OpenAI przesuwa granice tego, co możliwe, infrastruktura AWS będzie stanowić kręgosłup dla jej ambicji w dziedzinie sztucznej inteligencji. Skala i natychmiastowa dostępność zoptymalizowanych zasobów pokazują, dlaczego AWS jest wyjątkowo przygotowany, aby wspierać obciążenia AI na taką skalę.”
Współpraca obejmuje również modele dostępne na Amazon Bedrock
Ogłoszone partnerstwo rozszerza wcześniejszą współpracę obu firm. W 2025 roku OpenAI udostępniła swoje modele w ramach usługi Amazon Bedrock, dzięki czemu klienci AWS mogą korzystać z ChatGPT i innych modeli językowych w środowisku chmurowym. Według danych Amazona OpenAI stała się jednym z najpopularniejszych dostawców modeli w Bedrock, z tysiącami aktywnych klientów na całym świecie.
Wśród firm korzystających z modeli OpenAI na Bedrock znajdują się m.in. Bystreet, Comscore, Peloton, Thomson Reuters, Triomics i Verana Health. Wykorzystują one technologię OpenAI do realizacji zróżnicowanych zadań – od automatyzacji analiz naukowych i matematycznych po wspieranie agentowych procesów biznesowych.









