
Sztuczna inteligencja przestała być domeną laboratoriów i konferencji technologicznych – właśnie wkroczyła do gabinetów najwyższych rangą dowódców amerykańskiej armii.
Dowódca 8. Armii Stanów Zjednoczonych w Korei Południowej major generał William Hank Taylor publicznie przyznał, iż wykorzystuje ChatGPT do podejmowania kluczowych decyzji dowódczych. Chat i ja staliśmy się ostatnio naprawdę bliscy – powiedział podczas konferencji prasowej używając potocznego określenia na narzędzie OpenAI. To wyznanie wywołało falę kontrowersji i pytań o bezpieczeństwo danych oraz ryzyko uzależnienia armii od komercyjnych systemów AI.
Taylor, który dowodzi wszystkimi siłami amerykańskimi w Korei Południowej i pełni funkcję szefa sztabu Połączonego Dowództwa ONZ, nie jest odosobnionym przypadkiem. Pentagon od lat inwestuje miliardy dolarów w rozwój systemów opartych na sztucznej inteligencji uznając, iż przyszłe konflikty będą wymagały podejmowania decyzji w tempie przekraczającym ludzkie możliwości. W marcu Departament Obrony Stanów Zjednoczonych wybrał firmę Scale AI do realizacji projektu Thunderforge – sztandarowej inicjatywy mającej na celu integrację systemów AI w planowanie operacyjne na poziomie teatru działań wojennych.
Generał i bot – nowy duet na froncie dowodzenia
Podczas konferencji Association of the United States Army w Waszyngtonie generał Taylor nie ukrywał entuzjazmu wobec możliwości, jakie daje mu sztuczna inteligencja. Próbuję budować modele, które pomogą nam wszystkim, szczególnie w przewidywaniu kolejnych kroków na podstawie cotygodniowych raportów. Taylor używa AI nie tylko do analizy strategicznej, ale także do doskonalenia osobistego stylu przywództwa i procesów decyzyjnych, które wpływają na tysiące żołnierzy pod jego komendą.
Generał podkreślił, iż jego celem jest wykorzystanie technologii do uzyskania przewagi strategicznej. Jako dowódca chcę podejmować lepsze decyzje. Chcę mieć pewność, iż podejmuję je we adekwatnym czasie, aby uzyskać przewagę – wyjaśnił. Nie podał wprawdzie konkretnych przykładów taktycznych czy operacyjnych decyzji wspieranych przez AI, ale potwierdził, iż jego armia regularnie wykorzystuje sztuczną inteligencję do analiz predykcyjnych związanych z logistyką i zaopatrzeniem, a także do sporządzania cotygodniowych raportów.
OODA Loop – teoria, która napędza AI w wojsku
Entuzjazm dowódców pokroju Taylora wobec AI nie bierze się znikąd. U jego podstaw leży koncepcja znana jako pętla OODA (Observe, Orient, Decide, Act – obserwuj, orientuj się, decyduj, działaj) opracowana przez pilotów myśliwców amerykańskich podczas wojny koreańskiej. Teoria ta zakłada, iż strona zdolna do szybszego przechodzenia przez cykl obserwacji, orientacji, decyzji i działania uzyskuje przewagę na polu bitwy. W erze algorytmicznej wojny, gdzie decyzje mogą być podejmowane w milisekundach, ludzki umysł staje się wąskim gardłem.
Pentagon zmierza w kierunku świata, w którym decyzje będą podejmowane z prędkością maszyn, a nie ludzi. To właśnie ta wizja napędza obecny wyścig zbrojeń AI, w którym Stany Zjednoczone ścigają się z Chinami i Rosją o dominację technologiczną na przyszłych polach bitew.
Thunderforge – Pentagon stawia na AI w planowaniu wojskowym
Projekt Thunderforge reprezentuje najbardziej ambitną jak dotąd próbę Pentagonu zintegrowania sztucznej inteligencji z procesami planowania strategicznego. Defense Innovation Unit, innowacyjne ramię Pentagonu, wybrało firmę Scale AI do budowy prototypu systemu, który ma wykorzystywać zaawansowane modele językowe (LLM), symulacje oparte na AI oraz interaktywne gry wojenne do przyspieszenia podejmowania decyzji na poziomie dowództw regionalnych.
System zostanie początkowo wdrożony w Dowództwie Indo-Pacyfiku (INDOPACOM) oraz Dowództwie Europejskim (EUCOM), dwóch kluczowych komendach odpowiedzialnych za powstrzymywanie największych przeciwników Ameryki – Chin i Rosji. Scale AI współpracuje przy tym projekcie z firmami Anduril i Microsoftem, tworząc ekosystem narzędzi AI dla planowania kampanii, alokacji zasobów i ocen strategicznych.
Halucynacje, przecieki i inne technologiczne pułapki
Entuzjazm generała Taylora wobec ChatGPT może budzić niepokój ze względu na dobrze udokumentowane problemy z wiarygodnością komercyjnych modeli językowych. ChatGPT i podobne systemy są notorycznie znane z halucynacji – zjawiska, w którym generują przekonująco brzmiące, ale całkowicie zmyślone informacje. CEO OpenAI, Sam Altman, sam przyznał w wywiadzie, iż model będzie pewnie siebie stwierdzać rzeczy jako fakty, które są całkowicie wymyślone.
GPT-5, najnowsza wersja systemu, wykazuje wprawdzie poprawę – firma twierdzi, iż odpowiedzi modelu zawierają o 45 proc. mniej błędów niż GPT-4o przy włączonym wyszukiwaniu w sieci. Jednak bez dostępu do Internetu wskaźnik halucynacji GPT-5 wciąż wynosi aż 47 proc., co oznacza, iż niemal połowa odpowiedzi na pytania faktograficzne może być błędna.
Kolejnym poważnym ryzykiem jest bezpieczeństwo danych. Komercyjne modele językowe zapisują każdy prompt, co stwarza trwałe zagrożenie dla bezpieczeństwa operacyjnego (OPSEC). Pentagon wielokrotnie ostrzegał przed używaniem publicznych modeli AI ze względu na poważne ryzyko ujawnienia wrażliwych lub tajnych informacji. Agregacja pojedynczych promptów i wyników może prowadzić do niezamierzonego ujawnienia informacji niejawnych.
Chiny i Rosja już przyspieszają w wyścigu AI
Podczas gdy amerykańscy generałowie eksperymentują z ChatGPT globalni rywale Stanów Zjednoczonych nie próżnują. Chiny zidentyfikowały AI jako priorytet strategiczny i centralny punkt globalnej konkurencji już w swoim planie rozwoju AI z 2017 r. Szacuje się, iż wydatki obronne Chin na 2024 r. wyniosły faktycznie od 330 do 450 mld dol. – znacznie więcej niż oficjalnie ogłaszane liczby – z których część przeznaczono na badania i rozwój AI.
Pekin rozwija autonomiczne pojazdy wojskowe i technologię rojów dronów zaprojektowaną do przełamywania systemów obrony przeciwrakietowej. AI jest centralnym elementem celu prezydenta Xi Jinpinga, aby do połowy wieku uczynić z Chińskiej Armii Ludowo-Wyzwoleńczej wojsko klasy światowej.
Rosja, choć znacznie w tyle za Stanami Zjednoczonymi i Chinami w ogólnym rozwoju AI, przedstawiła dziesięcioletni plan wojskowej AI skupiony na wdrażaniu autonomicznych systemów uzbrojenia. Moskwa zamierza do końca roku zautomatyzować 30 proc. swojego sprzętu wojskowego. W trwającej wojnie w Ukrainie zarówno Rosja jak i Ukraina intensywnie wykorzystują AI do wykrywania celów, zbierania wywiadowczych informacji i autonomicznego naprowadzania dronów.
Microsoft w swoim raporcie o zagrożeniach cyfrowych z października ostrzegł, iż Rosja, Chiny, Iran i Korea Północna dramatycznie zwiększyły wykorzystanie sztucznej inteligencji do prowadzenia cyberataków i rozpowszechniania dezinformacji wymierzonej w Stany Zjednoczonone. Liczba przypadków wykorzystania AI przez zagranicznych przeciwników podwoiła się od 2024 r. i wzrosła dziesięciokrotnie od 2023 r.
OpenAI i Pentagon – sojusz, który zmienił zasady gry
Jeszcze niedawno polityka OpenAI wyraźnie zabraniała używania jej technologii do celów wojskowych i wojennych. Ta jednoznaczna klauzula została jednak po cichu usunięta 10 stycznia ubiegłego roku, otwierając drogę do lukratywnych kontraktów wojskowych. Nowa polityka zachowuje zakaz szkodzenia sobie lub innym i podaje rozwijanie lub używanie broni jako przykład, ale całkowity zakaz zastosowań wojskowych zniknął.
Tydzień później, podczas Światowego Forum Ekonomicznego w Davos, wiceprezes OpenAI ds. globalnych Anna Makanju ogłosiła, iż firma już współpracuje z Pentagonem nad cyberbezpieczeństwem open-source i prowadzi rozmowy na temat zapobiegania samobójstwom weteranów. OpenAI tłumaczy zmianę polityki potrzebą jasności – wcześniejsze sformułowania mogły blokować korzystne przypadki użycia zgodne z misją firmy.
Zmiana ta umożliwiła OpenAI – którego partnerstwo z Microsoftem warte jest podobno 13 mld dol. – dołączenie do grona firm technologicznych walczących o wojskowe kontrakty warte miliardy. Microsoft już współpracuje ściśle z Pentagonem przy wielu projektach, w tym kontrakcie chmurowym o wartości 9 mld dol. dzielonym między Microsoft, Google’a, Amazon i Oracle’a.
Co dalej z AI w mundurze?
Generał Taylor nie jest pierwszym ani ostatnim wysokim rangą oficerem, który sięga po sztuczną inteligencję. Jednostki Operacji Specjalnych już wykorzystują AI do analizy doktryn Pentagonu, ulepszenia funkcji wyszukiwania i ułatwienia personelowi szybkiego zapoznania się z wymaganiami na nowych stanowiskach. Project Maven, sztandarowy program AI Pentagonu do wykrywania i analizy obiektów, ma niedługo zacząć przekazywać w 100 proc. wygenerowaną przez maszyny inteligencję dowódcom bojowym – bez udziału człowieka w tym procesie.
Wyścig o dominację AI w wojsku nie zwalnia. Według raportu Parlamentu Europejskiego z bieżącego roku globalny wyścig zbrojeń AI nabiera prędkości, przy czym Chiny i Stany Zjednoczone rywalizują o przywództwo, a Rosja intensywnie inwestuje w zdolności AI. W tym kontekście deklaracje generała Taylora o jego bliskiej relacji z ChatGPT nabierają zupełnie innego znaczenia – nie są tylko ciekawostką technologiczną, ale symptomem głębszej transformacji, która zmienia charakter współczesnej wojny.