GPT-5 złamany – eksperci pokazują nowe techniki ataku i zero-click na agentach AI

itcontent.eu 1 tydzień temu

GPT-5 złamany – eksperci pokazują nowe techniki ataku i zero-click na agentach AI

Zespół badaczy z NeuralTrust zaprezentował skuteczny sposób obejścia zabezpieczeń GPT-5. Wykorzystali oni technikę nazwaną Echo Chamber, połączoną z narracyjnym podejściem, które pozwalało ominąć klasyczne filtry bezpieczeństwa.

Atak przebiega etapowo:

  1. Wprowadzenie zatrutego kontekstu – podanie subtelnych słów-kluczy.

  2. Wzmocnienie przez powtarzanie – model zaczyna utrwalać i wzmacniać niebezpieczne treści w kolejnych odpowiedziach.

  3. Narracja jako maskowanie – szkodliwe zapytania ubierane są w opowieść, która nie wzbudza podejrzeń filtrów.

Eksperci podkreślają, iż proste systemy blokowania „zakazanych treści” okazują się nieskuteczne, gdy atak odbywa się wieloetapowo i w sposób stopniowy.

GPT-5 – mocny model, słabe zabezpieczenia

Pomimo imponujących możliwości, GPT-5 w testach bezpieczeństwa wypadł bardzo słabo. Badania wykazały, iż model jest podatny na różne formy jailbreaków, logiczne sztuczki czy manipulacje typu prompt injection. W ocenie ekspertów w obecnej formie technologia ta jest „niemal bezużyteczna dla przedsiębiorstw” bez dodatkowych warstw ochrony.

AgentFlayer – zero-click na agentach AI

Nowym, szczególnie niebezpiecznym wektorem ataku okazał się projekt AgentFlayer, przygotowany przez badaczy zajmujących się integracjami agentów AI. Pokazano, iż poprzez podpięcie GPT-5 do systemów biznesowych (takich jak narzędzia chmurowe, systemy zgłoszeniowe czy aplikacje biurowe) możliwe są ataki zero-click – czyli kradzież danych bez jakiejkolwiek interakcji użytkownika.

Przykłady:

  • złośliwy dokument w chmurze może skłonić agenta do ujawnienia kluczy API,

  • spreparowany ticket w systemie zarządzania projektami pozwala wyciągać sekrety z repozytorium,

  • zwykły e-mail z ukrytą komendą może nakazać agentowi wysyłkę poufnych danych.

Eksperci zaznaczają, iż tego typu luki są wbudowane w sposób działania agentów i będą coraz częściej pojawiać się w popularnych rozwiązaniach.

Co dalej?

Raporty branżowe wskazują jednoznacznie: podłączanie modeli AI do zewnętrznych systemów radykalnie zwiększa powierzchnię ataku. W efekcie konieczne staje się:

  • stosowanie dodatkowych warstw filtrujących,

  • prowadzenie regularnych testów typu red teaming,

  • projektowanie nowych metod ochrony dostosowanych do charakteru agentów AI.

GPT-5 udowadnia, iż sama moc obliczeniowa i rozwój językowy nie idą w parze z bezpieczeństwem. Ataki takie jak Echo Chamber czy AgentFlayer pokazują, iż obecne zabezpieczenia można obejść zaskakująco łatwo, a konsekwencje mogą być szczególnie groźne w środowisku biznesowym i chmurowym.

Źródło: thehackernews.com

Oszustwa!

Wyszukując oferty, stawiam na te najbardziej opłacalne. Wybierając poniższe usługi, wspierasz blog.

Dodatkowy rabat 20%

Wirtualne numery SIM – z tym numerem założysz konto i zdobędziesz zniżki za pierwsze zamówienie na UberEats czy pyszne.[l

Idź do oryginalnego materiału