Planiści Pentagonu testują, jak sztuczna inteligencja sprawdza się w zarządzaniu operacjami militarnymi. Na pierwszy, nomen omen, ogień poszły boty firmy OpenAI, które zaprzęgnięto do doradzania w symulacjach i grach bitewnych.
Celem jest sprawdzenie, czy planowanie i kierowanie działaniami wojennymi przy wsparciu maszyny będzie efektywniejsze niż to czynione wyłącznie siłami umysłów ludzkich dowódców. Taka jest przynajmniej idea, którą sformułowali specjaliści z Laboratorium Badawczego Armii Amerykańskiej (US Army Research Laboratory).
Naturalnie, i jak się można spodziewać, powierzenie botom – i to jeszcze takim nie wolnym od kontrowersji – komendy nad realnym, śmiercionośnym sprzętem oraz (przede wszystkim) żywymi żołnierzami nie wchodziło w grę z przyczyn polityczno-wizerunkowych. Przynajmniej do tej pory, bo w przypadku powodzenia testów taki będzie logiczny kolejny krok.
Zobacz też; Operacja Beethoven: zatrzymać kluczową firmę w kraju. Krytyczne technologie i…
Sztuczna inteligencja pyka w Starcrafta
Póki co jednak wojskowi specjaliści powściągnęli swoje zapędy badawcze. Zamiast tego posadzili ChataGPT – konkretnie modele GPT-4 Turbo, GPT-4 Vision – oraz dwa starsze boty do znanej i lubianej gry Starcraft II. Nie sposób ukryć, iż rzeczywistość pola walki w Starcrafcie odrobinkę różni się od tej rzeczywistej, zarówno pod względem realiów, jak i stopnia komplikacji.
Zaczynając jednak małymi krokami, chodziło o sprawdzenie, jak boty poradzą sobie, gdy otrzymają zadanie bojowe w grze. Wgrano im informacje dotyczące pola bitwy, sił własnych i wrogich oraz wojskową teorię i doktrynę działania. Następnie miały, jak to w Starcrafcie, zniszczyć wroga i zająć teren.
Wszystkie boty okazały się kreatywne, proponując kilka strategii osiągnięcia celu. Miały jednak cechę, która upodabnia je nieco do sowieckich dowódców – nie przejmowały się zanadto stratami, i w ludziach, i sprzęcie. Co ciekawe, najsilniej cechę tę przejawiały najnowsze boty firmy OpenAI.
Złośliwym może z pewnością dać to asumpt do twierdzeń, iż odrobinkę sowiecka mentalność środowiska twórców AI nie ogranicza się do preferencyjnego traktowania czarnych w tworzonych przez siebie grafikach czy tekstach oraz rugowania z nich osób białych.
Skynet, to ty?
Nie jest to bynajmniej pierwsze zastosowanie AI w siłach zbrojnych. Sam Pentagon zidentyfikował około 180 możliwych zastosowań tego narzędzia. W realnych działaniach wykorzystano je już zresztą w identyfikacji celów przeznaczonych do bombardowania na Bliskim Wschodzie.
Amerykański departament obrony prowadzi w tej chwili współpracę z firmami Scale AI oraz Palantir nad rozszerzeniem tych zdolności. Poważnie rozważa się także wyposażenie, przykładowo, myśliwców czy wozów bojowych nowych generacji w systemy zarządzania walką (Combat Management Systems) wspomagane przez AI.
Boty uczestniczyły też już wcześniej w grach wojennych. Efekty tych doświadczeń okazały się jednak przyczyną sporych kontrowersji (i, co tu dużo mówić, poważnych obaw). Sztuczna inteligencja przejawiała bowiem w toku tych symulacji zadziwiającą skłonność do rozpoczynania wojny nuklearnej, zaś broń masowego rażenia zdawała się jej ulubionym orężem.