
Sztuczna inteligencja już dziś może przejąć kontrolę nad wirtualnym statkiem kosmicznym i pokierować nim z precyzją, która jeszcze niedawno wydawała się nieosiągalna.
Najnowsze eksperymenty z udziałem ChatGPT i konkurencyjnych modeli pokazują, iż AI może z powodzeniem odgrywać rolę autonomicznego operatora misji orbitalnej. I to z zaskakującym skutkiem.
ChatGPT i LLaMA jako piloci statków kosmicznych
Naukowcy przeprowadzili serię testów z udziałem takich dużych modeli językowych, jak GPT-3.5 i LLaMA-3, których zadaniem było sterowanie manewrami w grze symulacyjnej Kerbal Space Program. W ramach konkursu KSP Differential Games modele sterowały wirtualnymi satelitami, podejmując decyzje na podstawie danych telemetrycznych. W tym środowisku LLM nie tylko skutecznie poradziły sobie z zadaniami nawigacyjnymi, ale także zajęły 2. miejsce w rywalizacji z innymi agentami AI.
W badaniu wykorzystano strategie prompt engineeringu, few-shot learningu i fine-tuningu. Wszystko po to, bypoprawić efektywność modeli. Wyniki zaskoczyły badaczy – LLaMA po odpowiednim dostrojeniu przewyższyła GPT, a najlepiej działające konfiguracje zbliżały się do skuteczności specjalistycznych rozwiązań opartych na równaniach fizycznych. Co więcej, wszystko to osiągnięto przy użyciu relatywnie niewielkich zbiorów danych treningowych.
AI vs tradycyjne sterowanie
Historycznie systemy sterowania statkami kosmicznymi opierały się na takich metodach matematycznych, jak PID czy LQR. Wymagają one przede wszystkim niezwykle precyzyjnego modelowania dynamiki. Alternatywy oparte na uczeniu maszynowym, w szczególności uczeniu ze wzmocnieniem, również niosą ograniczenia. Mowa tu m.in. wymaganiach obliczeniowych i problemach z uzyskaniem środowisk symulacyjnych. Właśnie dlatego wykorzystanie modeli językowych, które rozumieją kontekst i potrafią uczyć się na podstawie małych danych, może okazać się czymś przełomowym.
Badacze udostępnili kod, zbiory danych i szczegółowe wyniki, umożliwiając tym samym społeczności dalsze prace. Zastosowane podejście oparte na języku naturalnym (bez konieczności definiowania złożonych funkcji nagrody) okazało się nie tylko skuteczne, ale przede wszystkim wyjątkowo elastyczne. Modele LLM potrafiły podejmować decyzje oparte na danych wejściowych w czasie rzeczywistym, minimalizując dystans między obiektami i optymalizując zużycie paliwa.
Astronauci, ale w wersji tekstowej
Wydajność modeli była mierzona nie tylko skutecznością manewrów, ale także czasem reakcji, stabilnością decyzji i zużyciem takich zasobów, jak paliwo. Modele LLaMA, mimo pewnych opóźnień wynikających z ograniczeń sprzętowych, przewyższyły choćby bazowego bota Navball, który wcześniej generował dane treningowe. Modele GPT-3.5 z kolei zyskały dzięki technice Chain of Thought, która znacząco zwiększyła trafność decyzji poprzez rozbijanie problemów na logiczne kroki.
Warto też zauważyć, iż cała symulacja odbywała się w uproszczonym środowisku fizycznym KSP. Rodzi to pytania o skalowalność wyników do rzeczywistych misji kosmicznych. Niemniej jednak potencjał LLM jako operatorów systemów fizycznych jest bardzo duży i coraz lepiej udokumentowany.
Choć przez cały czas jesteśmy daleko od wysłania GPT-4 na orbitę, te wyniki sygnalizują zmianę paradygmatu w projektowaniu systemów autonomicznych. Nie chodzi już wyłącznie o algorytmy przetwarzające liczby, ale o modele rozumiejące kontekst, uczące się z niewielkich danych i adaptujące się do dynamicznego środowiska. LLM w przyszłości mogą stać się nie tylko asystentami, ale samodzielnymi operatorami misji – przynajmniej w sferze oprogramowania. Najbliższe lata pokażą, czy rzeczywistość dorówna tej ambitnej symulacji.
*Grafika wprowadzająca wygenerowana przez AI