Szef cyberobrony USA nakarmił ChatGPT tajnymi danymi. „Przypadkowo”

konto.spidersweb.pl 4 godzin temu

Szef cywilnej obrony cybernetycznej USA przypadkowo udostępnił wrażliwe dokumenty rządowe do publicznej wersji ChataGPT. Spowodowało to serię alarmów, wewnętrznych kontroli i politycznego oburzenia. To nie żart – Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych właśnie analizuje skalę problemu.

Madhu Gottumukkala – Dyrektor Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury (ang. CISA) – świeżo po objęciu stanowiska, w połowie lipca 2025 r. „przypadkowo” przesłał do ChataGPT dokumenty oznaczone jako tajne. Incydent wywołał skandal i rozpoczął audyt w departamencie.

Szef agencji cyberbezpieczeństwa, który pilnuje, by rządowe dane nie wyciekały, sam wrzuca wrażliwe pliki do publicznego narzędzia AI. Choć brzmi to jak kiepski dowcip, wydarzyło się naprawdę.

Co gorsza, procedury mające zapobiegać takim wpadkom zostały wdrożone dopiero po fakcie. Okazuje się również, iż nie był to jednorazowy błąd, ale seria działań, które finalnie doprowadziły do wykrycia i eskalacji całej sprawy.

Mimo kilkukrotnych ostrzeżeń, szef bezpieczeństwa ciągle udostępniał wrażliwe dane

Szczegóły kompromitują Gottumukkala w znaczący sposób. Mimo iż uzyskał specjalne pozwolenie na korzystanie z komercyjnych narzędzi AI, wielokrotnie otrzymywał ostrzeżenia przed upublicznianiem wrażliwych danych.

Nie powstrzymało go to jednak przed przesłaniem dokumentów kontraktowych CISA do ChataGPT. Systemy bezpieczeństwa zareagowały dopiero po fakcie.

Departament przeprowadza kontrolę, by ustalić, czy doszło do nieautoryzowanego dostępu. Incydent miał miejsce niedługo po tym, jak Gottumukkala objął stanowisko w maju 2025 r. – to właśnie wtedy pojawiły się pierwsze sygnały alarmowe.

Media branżowe i eksperci bezpieczeństwa nie kryją zdumienia: o ile szef agencji nie rozumie ryzyka korzystania z publicznych modeli językowych, to kto ma je rozumieć?

Więcej o cyberbezpieczeństwie przeczytasz na łamach serwisu Spider’sWeb:

Cała sytuacja mocno pachnie ironią. Instytucja chroniąca infrastrukturę krytyczną sama staje się źródłem potencjalnego wycieku. To pokazuje, iż kompetencja urzędników Trumpa jest równie wyrafinowana, co słoń w składzie porcelany.

Korzystanie z ChataGPT to poważne zagrożenie dla poufnych danych

Dobitnie obrazuje również, iż to nie technologia jest winna, a ludzie i procedury. Kiedy zawodzą ci, którzy powinni być wzorem, pozostaje nam jedynie pytanie: czy następnym krokiem będzie szkolenie z obsługi ChataGPT dla całego kierownictwa?

W świecie, gdzie narzędzia sztucznej inteligencji są tak powszechne, iż każdy może z nich skorzystać, bezpieczeństwo zaczyna się z pracy u podstaw. Zwykły zdrowy rozsądek i jasne zasady jak widać nie wystarczają.

Skoro choćby szef agencji nie potrafi ich przestrzegać, my sami powinniśmy się trzy razy się zastanowić, zanim skorzystamy z modelu sztucznej inteligencji w pracy.

Idź do oryginalnego materiału