Sztuczna inteligencja stała się nowym polem globalnych starć – między demokratyczną otwartością a autorytarną kontrolą. OpenAI próbuje utrzymać równowagę, walcząc z dezinformacją, cyberatakami i strachem, który AI budzi także w Polsce.
Kiedy sztuczna inteligencja zaczyna pisać, mówić i myśleć w sposób coraz bardziej przypominający człowieka, nieuchronnie pojawia się pytanie: czy wciąż potrafimy ją kontrolować?
OpenAI – firma stojąca za ChatGPT – przekonuje, iż tak. Jednak by to udowodnić, każdego dnia musi mierzyć się z rosnącą falą nadużyć, dezinformacji i cyberataków, napędzanych tą samą technologią, która miała uczynić świat bezpieczniejszym i bardziej efektywnym.
Od narzędzia do broni
Najnowszy raport OpenAI ujawnia kulisy tej walki. Od początku 2024 roku firma zablokowała ponad czterdzieści sieci wykorzystujących modele językowe do działań przestępczych – od phishingu czyli podszywania się pod zaufane instytucje i osoby w celu wyłudzenia danych, po tworzenie złośliwego systemu oraz prowadzenie tajnych kampanii propagandowych.
Wśród przypadków opisanych w raporcie znalazły się między innymi:
- rosyjskojęzyczne grupy przestępcze próbujące przy pomocy ChatGPT projektować i udoskonalać złośliwe oprogramowanie – w tym trojany i narzędzia do kradzieży danych,
- operatorzy używający języka koreańskiego, którzy korzystali z modeli AI do budowy systemów dowodzenia i kontroli (C2), powiązani z kampaniami phishingowymi przeciwko południowokoreańskim placówkom dyplomatycznym,
- sieci powiązane z chińskimi podmiotami państwowymi, które próbowały używać ChatGPT do profilowania krytyków reżimu, badania źródeł finansowania opozycyjnych kont w mediach społecznościowych i monitorowania rozmów w sieci.
OpenAI nie tylko blokuje tego typu działania, ale także analizuje ich ślady, by doskonalić własne systemy bezpieczeństwa. Jak podkreśla firma, w żadnym z przypadków modele nie dostarczyły przestępcom nowych ofensywnych możliwości. Większość z nich jedynie próbowała „ulepszyć” znane już metody. AI staje się więc nie tyle bronią samą w sobie, ile katalizatorem efektywności dla tych, którzy od dawna działają w cieniu prawa.
Wojna informacyjna 2.0
Najbardziej niepokojące pozostają jednak operacje wpływu – te, które kształtują opinię publiczną nie przez jawne kłamstwa, ale przez subtelną manipulację kontekstem.
Raport OpenAI ujawnia działania pochodzące z Rosji i Chin, które wykorzystywały ChatGPT do generowania narracji w mediach społecznościowych. Jedna z rosyjskich kampanii, o kryptonimie „Stop News”, przypominała działalność zwykłej agencji marketingowej. Jej zadaniem było generowanie filmów i wpisów na TikToku czy YouTubie w sposób mający subtelnie wpływać na emocje odbiorców i kształtować ich poglądy.
Z kolei chińska sieć publikowała posty po angielsku, krytykujące prezydenta Filipin i komentujące kwestie środowiskowe na Morzu Południowochińskim, a także amerykańską politykę zagraniczną. Choć treści wyglądały autentycznie, niemal nikt na nie reagował. Kampania była rozległa, ale nieskuteczna – OpenAI sklasyfikowało ją jako operację o dużej skali, ale minimalnym wpływie.
Szczególnie obszernie opisano działania chińskojęzycznych użytkowników. OpenAI, jako amerykańska firma, wyjątkowo stanowczo reagowała na wszelkie próby wykorzystania jej technologii do tworzenia systemów masowego monitorowania, śledzenia rozmów w mediach społecznościowych czy poszukiwania danych o przeciwnikach reżimu.
Demokratyczna kontra autorytarna AI
OpenAI deklaruje, iż jej misją jest rozwój „demokratycznej AI” – opartej na wartościach otwartości, transparentności i ochrony jednostki, zakorzenionych w zachodnim modelu demokracji. Firma jasno sprzeciwia się wykorzystywaniu swoich modeli przez reżimy autorytarne, zarówno do inwigilacji obywateli, jak i do zastraszania innych państw.
To podejście wynika nie tylko z etyki, ale także z pragmatyzmu. Autorytarne wykorzystanie sztucznej inteligencji stanowi bowiem zagrożenie nie tylko dla wolności jednostki, ale również dla globalnego bezpieczeństwa informacyjnego – w epoce generatywnych modeli kłamstwo może być równie przekonujące jak prawda.
Na tym tle pojawia się pytanie: czy ChatGPT stanie się narzędziem kontroli i obrony amerykańskiego modelu demokracji, czy też globalnym instrumentem wpływu. Może funkcjonować jako element „soft power” Zachodu w świecie, gdzie reżimy autorytarne coraz skuteczniej wykorzystują technologię do własnych celów.
Polska między zachwytem a lękiem
Podczas gdy OpenAI buduje tarczę przeciwko nadużyciom, w Polsce toczy się inna walka – o zaufanie społeczne do samej technologii. Z badań Politechniki Wrocławskiej i K+Research wynika, iż Polacy znajdują się w „fazie przejściowej”: coraz częściej korzystają z AI, ale z rosnącym niepokojem.
Aż 44 proc. respondentów obawia się dezinformacji wynikającej z AI, 39 proc. – utraty pracy w wyniku automatyzacji, a 35 procent – naruszenia prywatności. Zaledwie co dziesiąty badany ocenia swoją wiedzę o sztucznej inteligencji jako wysoką.
— Oddajemy kawałek po kawałku rzeczy, które były zarezerwowane wyłącznie dla człowieka — zauważa prof. Kamil Staniec.
Pokolenie Z korzysta z AI z naturalną swobodą, podczas gdy starsze generacje podchodzą do niej z większą ostrożnością. Ten sceptycyzm, zakorzeniony w doświadczeniu epoki, gdy media wymagały krytycznego dystansu, może dziś okazać się cenną tarczą przeciwko dezinformacji.
Sztuczna inteligencja to tylko narzędzie. Jej wykorzystanie zależy od człowieka – jego wiedzy, świadomości zagrożeń i gotowości do odpowiedzialnego działania.
Między kontrolą a współistnieniem
Z raportu OpenAI płynie jedno przesłanie: technologia nie jest z natury dobra ani zła – to ludzie nadają jej kierunek. Dlatego firma inwestuje w systemy wykrywania nadużyć, szkoli modele, które potrafią rozróżniać między badaniami naukowymi a próbą stworzenia wirusa komputerowego, i współpracuje z innymi laboratoriami, by zwiększać transparentność w całej branży.
W Polsce eksperci ostrzegają, iż jeżeli społeczeństwo nie nauczy się weryfikować informacji i myśleć krytycznie, grozi nam intelektualny regres – rzeczywistość, w której ekran staje się bardziej wiarygodny niż własny osąd. Jak podkreśla Paweł Łopatka z Platformy Nowych Technologii Pracodawców RP, przyszłość nie zależy od tego, czy AI zastąpi człowieka, ale od tego, czy człowiek nauczy się z nią współpracować.
Walka z nadużyciami sztucznej inteligencji to coś więcej niż kolejna odsłona cyberwojny. To test dla naszej cywilizacji – sprawdzian, czy potrafimy korzystać z potężnych narzędzi odpowiedzialnie, świadomi zarówno ich potencjału, jak i zagrożeń.
OpenAI pokazuje, iż technologia może stać się narzędziem obrony samej siebie. Ostatecznie jednak to nie Dolina Krzemowa zdecyduje o wyniku tej próby – zadecydujemy my wszyscy.









