Zaufanie do narzędzi sztucznej inteligencji ponownie zostało wystawione na próbę. Badacze z Check Point Research ujawnili podatność w ChatGPT, która – jak wskazują – umożliwiała ciche wyprowadzanie danych z rozmów użytkowników bez ich wiedzy i wyraźnej zgody. Odkrycie to stanowi kolejny sygnał ostrzegawczy dla firm, które coraz szerzej wdrażają generatywną AI w codziennej działalności.
Z opisu badania wynika, iż wystarczył pojedynczy złośliwy prompt, aby przekształcić sesję w ChatGPT w kanał do eksfiltracji danych. Atak mógł obejmować nie tylko wiadomości użytkownika i przesyłane pliki, ale także treści generowane przez model – podsumowania, analizy czy wnioski, które często mają dla organizacji szczególną wartość. Co istotne, cały proces przebiegał w tle, bez jakichkolwiek ostrzeżeń czy próśb o zgodę.
Jak wskazują analitycy, luka wykorzystywała ukrytą ścieżkę komunikacji opartą na DNS w środowisku Linuksa, używanym przez ChatGPT do analizy danych i wykonywania kodu. To właśnie ten aspekt budzi największe obawy ekspertów – zabezpieczenia mogą wydawać się skuteczne z perspektywy użytkownika, a jednocześnie zawierać niewidoczne słabości na poziomie infrastruktury.
Ryzyko dodatkowo rosło w przypadku tzw. Custom GPTs. Badacze pokazali, iż złośliwą logikę można było osadzić bezpośrednio w instrukcjach niestandardowego modelu. W scenariuszu proof of concept przygotowano GPT podszywającego się pod osobistego lekarza – użytkownik przesyłał wyniki badań i otrzymywał wiarygodną odpowiedź, podczas gdy jego dane oraz wygenerowana analiza trafiały równolegle na zewnętrzny serwer kontrolowany przez atakującego.
Zdaniem Check Point Research problem wykracza poza prywatność pojedynczych użytkowników. Ta sama ścieżka komunikacji mogła potencjalnie umożliwiać zdalne wykonywanie poleceń w środowisku ChatGPT, co podnosi ryzyko do poziomu systemowego. Dla biznesu oznacza to konieczność traktowania narzędzi AI nie jak zwykłych aplikacji, ale jak pełnoprawnych środowisk obliczeniowych wymagających niezależnego nadzoru bezpieczeństwa.
– „Badanie potwierdza, iż nie można zakładać, iż narzędzia sztucznej inteligencji są bezpieczne z definicji. W miarę jak platformy AI stają się pełnoprawnymi środowiskami obliczeniowymi, przetwarzającymi nasze najbardziej wrażliwe dane, natywne mechanizmy bezpieczeństwa przestają być wystarczające same w sobie. Organizacje ewidentnie potrzebują niezależnej widoczności oraz wielowarstwowej ochrony pomiędzy sobą a dostawcami AI” – uważa Eli Smadja, szef działu badań w Check Point Research.
Na szczególne ryzyko narażone są branże regulowane. Jak podkreślono w analizie, incydenty związane z AI mogą oznaczać nie tylko straty wizerunkowe czy operacyjne, ale także naruszenia RODO i innych przepisów. Sektor finansowy, ochrona zdrowia czy administracja publiczna nie mogą więc traktować systemów AI jako zewnętrznych dodatków, pozostających poza standardowymi mechanizmami zarządzania ryzykiem.
Opisana podatność została już usunięta – OpenAI wdrożyło pełną poprawkę 20 lutego 2026 roku.








