
Stany Zjednoczone właśnie wrzuciły Anthropic na czarną listę „ryzyka łańcucha dostaw” za odmowę współudziału w tworzeniu narzędzi do masowej inwigilacji i w pełni autonomicznej broni. To lokalny spór w Waszyngtonie, ale jego skutki odczuje cały świat nowych technologii – także my w Europie.
Sekretarz wojny Stanów Zjednoczonych Pete Hegseth ogłosił na X (dawniej Twitter), iż nakazał uznać Anthropic – firmę stojącą za modelem Claude – za „supply chain risk”, czyli zagrożenie dla łańcucha dostaw w resorcie obrony.
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
To to samo oznaczenie, które Amerykanie przyklejali dotąd głównie firmom z Chin, takim jak Huawei. W praktyce oznacza to próbę wypchnięcia Anthropic z kontraktów wojskowych i wysłanie jasnego sygnału całej branży: albo gracie według naszych zasad, albo wypad z rządowego stołu.
Powód? Anthropic od miesięcy negocjował z Pentagonem warunki użycia Claude’a w zastosowaniach wojskowych. Firma zgadzała się na „wszystkie legalne zastosowania” dla bezpieczeństwa narodowego, ale postawiła dwa twarde wyjątki:
- brak zgody na masową inwigilację Amerykanów,
- brak zgody na w pełni autonomiczną broń, która podejmuje decyzję o użyciu siły bez człowieka w pętli.
Negocjacje utknęły, a zamiast kompromisu przyszła polityczna salwa: publiczne ogłoszenie, iż Anthropic to ryzyko dla łańcucha dostaw.
Odpowiedź Anthropic: „Nie cofniemy się. Do zobaczenia w sądzie”
It’s a shame that @DarioAmodei is a liar and has a God-complex. He wants nothing more than to try to personally control the US Military and is ok putting our nation’s safety at risk.
The @DeptofWar will ALWAYS adhere to the law but not bend to whims of any one for-profit tech… https://t.co/ZfwXG36Wvl
Anthropic zareagował błyskawicznie oficjalnym oświadczeniem. Firma podkreśla, że:
- wyjątki dotyczą wyłącznie dwóch obszarów: masowej inwigilacji obywateli i w pełni autonomicznej broni,
- według jej wiedzy te ograniczenia nie zablokowały ani jednej realnej misji rządowej,
- obecne „frontierowe” modele AI nie są na tyle niezawodne, by powierzać im decyzję o użyciu śmiercionośnej siły,
- masowa inwigilacja Amerykanów narusza fundamentalne prawa.
Najmocniejszy fragment oświadczenia dotyczy samej decyzji Pentagonu. Anthropic nazywa taki ruch „bezprecedensowym” – dotąd zarezerwowanym dla „przeciwników Stanów Zjednoczonych”, a nie dla amerykańskich firm. Zapowiada też, iż będzie z tą decyzją walczyć w sądzie i nie zmieni stanowiska „bez względu na presję czy kary”.
Jednocześnie firma uspokaja klientów: jeżeli korzystasz z Claude’a komercyjnie to nic się nie zmienia. choćby jeżeli jesteś wykonawcą Pentagonu to ograniczenia mają – zgodnie z prawem – dotyczyć wyłącznie użycia Claude’a w ramach kontraktów z resortem obrony, a nie w innych projektach.
Anthropic is running a sophisticated regulatory capture strategy based on fear-mongering. It is principally responsible for the state regulatory frenzy that is damaging the startup ecosystem. https://t.co/C5RuJbVi4P
— David Sacks (@DavidSacks) October 14, 2025Innymi słowy: to nie jest „wyłączenie Claude’a w Stanach Zjednoczonych”, tylko próba odcięcia go od części zastosowań wojskowych i wywarcia presji politycznej.
Dlaczego to ważne także z perspektywy Polski i Europy
Z europejskiego punktu widzenia ta historia brzmi jak deja vu. Stany Zjednoczone po raz kolejny używają narzędzi bezpieczeństwa narodowego, by rozgrywać spór z prywatną firmą technologiczną – tyle iż tym razem nie chodzi o chińskiego giganta, a o amerykański startup, który ośmielił się powiedzieć „nie” w sprawie masowej inwigilacji i autonomicznej broni.
W Europie, gdzie właśnie wchodzi w życie AI Act, dyskusja o granicach zastosowań sztucznej inteligencji toczy się w zupełnie innym tonie. Unia – przynajmniej w teorii – stara się z góry zakazać najbardziej kontrowersyjnych zastosowań, jak systemy masowego nadzoru biometrycznego w czasie rzeczywistym. Tymczasem w Waszyngtonie widzimy sytuację, w której rząd próbuje wymusić na prywatnej firmie zgodę na coś, co w europejskiej debacie często pojawia się jako przykład „czarnego scenariusza”.
Dla polskiego czytelnika, przyzwyczajonego do ostrożności wobec amerykańskiej polityki (szczególnie w wydaniu administracji Trumpa), ten konflikt jest interesujący z dwóch powodów. Po pierwsze, pokazuje, iż choćby w Stanach Zhednoczonych są firmy gotowe postawić granicę i powiedzieć: „tu kończy się nasz biznes, zaczyna etyka”. Po drugie, uświadamia, jak bardzo różne są standardy i oczekiwania wobec AI po obu stronach Atlantyku.
Anthropic nie jest święty. Ale tym razem ma rację w niewygodnej sprawie
Warto tu zachować trzeźwość reakcji. Anthropic, podobnie jak OpenAI, Google czy Meta, nie jest niewinnym aniołkiem. Modele generatywne nie powstały z próżni – trenowano je na gigantycznych zbiorach danych, w których znalazły się także treści objęte prawem autorskim, dane użytkowników, prace twórców, którzy nigdy nie wyrazili zgody na takie wykorzystanie.
Z perspektywy europejskiego użytkownika trudno więc idealizować jakąkolwiek firmę GenAI. Każda ma swoje za uszami, a spory sądowe o naruszenia praw autorskich dopiero się rozkręcają.
I właśnie dlatego ten konkretny spór jest tak ciekawy. Bo choćby jeżeli mamy pełne prawo patrzeć na Anthropic krytycznie, to w tej jednej, bardzo konkretnej kwestii – masowej inwigilacji i w pełni autonomicznej broni – firma staje po stronie wartości, które w Europie uznajemy za podstawowe.
Co to znaczy „w pełni autonomiczna broń” i dlaczego AI nie jest na to gotowa
Z technicznego punktu widzenia spór dotyczy tego czy obecne modele AI są na tyle przewidywalne i bezpieczne, by powierzyć im decyzję o użyciu śmiercionośnej siły bez udziału człowieka.
Dzisiejsze systemy generatywne – w tym Claude – to ogromne modele statystyczne. Potrafią pisać kod, streszczać dokumenty, analizować dane, ale wciąż miewają halucynacje, błędy, nieprzewidywalne zachowania. W zastosowaniach cywilnych to „tylko” problem jakości. W zastosowaniach wojskowych może to oznaczać błędne rozpoznanie celu, eskalację konfliktu, ofiary cywilne.
„Człowiek w pętli” (human in the loop) to dziś złoty standard w dyskusji o broni wykorzystującej AI. Oznacza, iż to człowiek podejmuje ostateczną decyzję o użyciu siły, a systemy AI pełnią rolę doradczą, analityczną, wspierającą. Pentagon – jeżeli wierzyć relacjom – chciał pójść krok dalej i mieć możliwość użycia Claude’a w systemach, gdzie człowiek jest z tej pętli wyjmowany.
Anthropic mówi: nie. I trudno się dziwić, jeżeli weźmiemy pod uwagę, iż te same modele potrafią czasem z pełną pewnością wygenerować kompletnie zmyślone informacje.
Masowa inwigilacja: AI jako turbo-skaner społeczeństwa
Drugi sporny punkt to masowa inwigilacja obywateli. Tu również chodzi o coś więcej niż tylko „wyszukiwanie w logach”.
Modele takie jak Claude mogą służyć jako multiplikator mocy dla służb: analizować w czasie rzeczywistym ogromne zbiory danych z kamer, podsłuchów, mediów społecznościowych, transakcji finansowych. Zamiast tysięcy analityków – jeden system, który wyłapuje „podejrzane wzorce”.
Brzmi jak marzenie każdego rządu, który lubi mieć obywateli pod lupą. Z europejskiej perspektywy – koszmar, który wprost zderza się z ideą ochrony prywatności, RODO i podstawowych praw człowieka.
Anthropic wprost pisze, iż masowa inwigilacja Amerykanów narusza fundamentalne prawa. To mocne słowa jak na firmę technologiczną, która zarabia na sprzedaży dostępu do AI. I dokładnie ten fragment najbardziej kłuje w oczy administrację, która chętnie używa hasła „bezpieczeństwo narodowe” jako uniwersalnego argumentu.
„Albo nam pomożecie, albo was wyłączymy”
Decyzja o oznaczeniu Anthropic jako „ryzyka łańcucha dostaw” ma jeszcze jeden wymiar: sygnał wysłany do całej Doliny Krzemowej.
Przez ostatnie lata rząd Stanów Zjednoczonych próbował zacieśniać współpracę z Big Tech w obszarze AI i obronności. Kontrakty z Microsoftem, Google’em, Amazonem, Palantirem – to miliardy dolarów i realny wpływ na to, jak wygląda nowoczesna armia. Teraz pojawia się precedens: jeżeli firma stawia zbyt twarde warunki etyczne to można ją po prostu wyrzucić z gry, używając narzędzi zarezerwowanych dotąd dla „wrogich” podmiotów.
Inne firmy dostają jasny komunikat: negocjować można, ale tylko do momentu w którym nie podważasz fundamentalnych oczekiwań rządu. A jeżeli masz wątpliwości co do masowej inwigilacji czy autonomicznej broni – lepiej zachowaj je dla siebie, bo inaczej możesz skończyć jak Anthropic.
A co z nami, zwykłymi użytkownikami technologii?
Z perspektywy polskiego entuzjasty elektroniki użytkowej ta historia może wydawać się odległa. Pentagon, sekretarz wojny, 10 USC 3252 – brzmi jak coś z amerykańskiego serialu politycznego.
Ale skutki są bardzo realne. Po pierwsze, to kolejny krok w stronę militaryzacji AI. Im więcej firm będzie skłonnych bezrefleksyjnie dostosowywać swoje modele do potrzeb wojska, tym większe ryzyko, iż technologie, z których korzystamy na co dzień – w telefonach, laptopach, chmurze – będą projektowane przede wszystkim pod kątem zastosowań wojskowych i wywiadowczych.
Po drugie, to test dla całej branży GenAI. jeżeli Anthropic utrzyma swoje stanowisko i wygra w sądzie to pokaże, iż da się prowadzić duży biznes AI nie zgadzając się na wszystko, czego zażąda rząd. jeżeli przegra – sygnał będzie odwrotny.
Po trzecie, to istotny kontekst dla europejskiej regulacji AI. AI Act będzie działał w świecie, w którym największy sojusznik UE naciska na firmy, by poszerzały wojskowe zastosowania AI, a nie je ograniczały. Dla polskich firm i użytkowników oznacza to życie w rozkroku między dwoma porządkami: europejskim, bardziej ostrożnym, i amerykańskim, coraz bardziej pragmatycznym i militarnym.
Claude dziś, Claude jutro: czy powinniśmy się bać, czy raczej patrzeć uważnie?
Anthropic, mimo wszystkich swoich grzechów związanych z danymi treningowymi, w tym konkretnym sporze zachowuje się jak ktoś, kto pamięta, iż technologia ma konsekwencje wykraczające poza wykres przychodów. Odmowa wsparcia masowej inwigilacji i w pełni autonomicznej broni to nie jest marketingowy slogan tylko realna, kosztowna decyzja biznesowa.
Z europejskiej, polskiej perspektywy trudno nie kibicować takiemu podejściu – choćby jeżeli równocześnie domagamy się od tych samych firm większej przejrzystości, uczciwszego podejścia do twórców i lepszego poszanowania prywatności użytkowników.
Bo jeżeli mamy wybierać między firmą, która chce zarabiać na AI, ale stawia granice przy masowej inwigilacji i autonomicznej broni, a firmą, która bez mrugnięcia okiem podpisze wszystko, co podsunie jej rząd – wybór, mimo wszystko, nie jest aż tak trudny.
AI może jednocześnie pisać nam maile i pomagać w wyborze celu dla drona – „neutralność technologii” to już tylko wygodny mit.
















