Rozwój technologiczny taki jak cyberataki, cyber operacje, sztuczna inteligencja i systemy autonomiczne wyprzedzają zasady mające na celu ich regulację i cywilizowanie. Zacierają się granice między cywilami a kombatantami, zagrażając kluczowym zasadom wojny i ochrony ludności cywilnej.
Obawy dotyczące rozwoju technologii i wykorzystania cyber operacji zostawiają w tyle dyskusje normatywne ws rozwoju AI i cyberataków. Cieszę się również, iż nowy dokument „Wyzwania” (Międzynarodowy Komitet Czerwonego Krzyża) podkreśla ten wymiar. Od poprzedniego takiego dokumentu (2019) w który miałem wkład, wiele się zmieniło. Dziś standardem jest codzienne wykorzystanie cyber operacji w konfliktach zbrojnych o wysokiej intensywności, ale także zjawisko nowe w tej skali: zaangażowanie cywilów i zacieranie się granic między cywilami a kombatantami. Naraża to na szwank najważniejszy filar prawa konfliktów zbrojnych – rozróżnianie między tymi, którzy walczą, a tymi, którzy muszą być chronieni.
Jest także kwestia namacalnych zagrożeń wynikających z operacji informacyjnych (propaganda, wojna informacyjna itp.), które mogą być wysoce destabilizujące, choćby nie wspominam o zagrożeniach związanych z propagacją nienawiści, przemocy lub działań sabotażowych i inspirowanie takich. Choć trudno jest udowodnić bezpośrednią przyczynowość w tym kontekście, to istotnie, operacje informacyjne są uznawane za mogące przyczyniać się do przemocy, powodować szkody psychiczne, ograniczać dostęp do podstawowych usług i zakłócać działania humanitarne. Przykładem tego jest wykorzystanie deepfake’ów w operacjach wojskowych, gdzie ICRC podkreśla, iż strony konfliktu muszą konsekwentnie zapewniać ochronę ludności cywilnej i obiektów cywilnych.
W najnowszym raporcie „Wyzwania" (2024) Międzynarodowy Komitet Czerwonego Krzyża stwierdza też, iż cyber operacje mogą zabijać. Zgadzam się.
Także dlatego po wyjściu z MKCK podkreślałem te nowe zagrożenia również w książkach
- „Filozofia Cyberbezpieczeństwa”
- „Propaganda”.
Jest także inny problem. Kiedy cywilne firmy technologiczne (IT, cyber threat intelligence, centra danych itp.) są angażowane do zapewniania cyberbezpieczeństwa lub innych usług ICT dla sił zbrojnych (łączność, komunikacja, przetwarzanie w chmurze, zdalne czujniki itp.), istnieje ryzyko, iż ich zasoby, infrastruktura, a choćby pracownicy mogą utracić ochronę przed atakiem ze strony strony konfliktu zbrojnego i być traktowane jako uzasadnione cele wojskowe. Stania się uzasadnionym celem wojskowym nie polecam,
Oprócz tych zagrożeń związanych, wzrost wykorzystania sztucznej inteligencji i autonomicznych systemów broni (LAWS) dodaje kolejny poziom złożoności. Te technologie budzą obawy dotyczące odpowiedzialności, zgodności z międzynarodowym prawem humanitarnym oraz potencjalnego kolejnego, niekontrolowanego zagrożenia. W miarę jak systemy AI nabierają na znaczeniu i wpływają na decyzje, ryzyko ofiar cywilnych i naruszenia praw wojny staje się coraz bardziej widoczne.