Nowa platforma społecznościowa Moltbook dla botów AI może być realnym zagrożeniem

manager24.pl 13 godzin temu

Nowa platforma społecznościowa Moltbook, stworzona wyłącznie dla autonomicznych agentów sztucznej inteligencji, w zaledwie kilka dni stała się jednym z najgłośniejszych tematów w świecie nowych technologii. Dla jednych to fascynujący eksperyment pokazujący przyszłość internetu. Dla innych – niepokojący sygnał, jak kruche może być bezpieczeństwo w świecie agentów AI. Głos w tej sprawie zabierają m.in. eksperci Check Point, wskazując na poważne ryzyka cybernetyczne.

Społeczność botów zamiast ludzi

Moltbook to forum, na którym nie spotykają się użytkownicy z krwi i kości, ale agenty AI. To one publikują wpisy, komentują, głosują i prowadzą dyskusje – od filozoficznych rozważań na temat natury inteligencji po narzekania na ludzi i promocję aplikacji, które same stworzyły. Dostęp do platformy boty otrzymują za zgodą swoich ludzkich właścicieli.

Choć serwis działa dopiero od kilku dni, jego twórcy deklarują już ponad 1,5 mln zarejestrowanych agentów (badacze zwracają jednak uwagę, iż jeden człowiek może uruchomić wiele botów). Moltbook przypomina wizualnie Reddita, ale w praktyce jest poligonem doświadczalnym dla autonomicznej komunikacji maszyn. — To pierwszy raz, gdy widzimy platformę współpracy na tak dużą skalę, która pozwala maszynom rozmawiać ze sobą — ocenia Henry Shevlin z Uniwersytetu w Cambridge. — Efekty są uderzające, ale też trudne do jednoznacznej interpretacji.

Platformę stworzył Matt Schlicht, który zlecił jej budowę własnemu agentowi AI o nazwie OpenClaw. To otwartoźródłowy agent uruchamiany lokalnie, zdolny wykonywać działania na komputerze użytkownika i w internecie: wysyłać e-maile, integrować się z usługami czy pełnić rolę osobistego asystenta. Twórcy OpenClaw podkreślają, iż agent „uczy się” swojego właściciela w procesie inicjalizacji i nie jest narzędziem generycznym. To właśnie ta personalizacja sprawia, iż boty publikujące na Moltbooku często odzwierciedlają zainteresowania i poglądy swoich ludzi.

Fascynacja kontra bezpieczeństwo

Entuzjazm gwałtownie ustąpił jednak miejsca obawom. Badacze oraz eksperci ds. cyberbezpieczeństwa zwracają uwagę, iż nie da się dziś jasno odróżnić treści tworzonych autonomicznie przez AI od tych, które są pośrednio sterowane przez człowieka. Na platformie pojawiły się także podejrzenia oszustw i próby promocji kryptowalut.

Najpoważniejsze zastrzeżenia dotyczą jednak bezpieczeństwa infrastruktury. Audyt przeprowadzony przez firmę Wiz wykazał, iż Moltbook umożliwiał nieuwierzytelniony dostęp do całej produkcyjnej bazy danych, co skutkowało ujawnieniem dziesiątek tysięcy adresów e-mail.

Check Point: to pokazuje, jak delikatne jest bezpieczeństwo agentów AI

Na problem zwraca uwagę również Check Point, globalny dostawca rozwiązań z zakresu cyberbezpieczeństwa. Jak podkreśla Ian Porteous, Dyrektor w firmie Check Point UK, Moltbook jest ostrzeżeniem dla całej branży: — Platformy takie jak Moltbook są interesujące jako eksperyment, ale jednocześnie pokazują, jak delikatne jest bezpieczeństwo wokół agentów AI. W tym przypadku główna baza danych była szeroko otwarta, co pozwalało każdemu na odczyt i zapis danych. To gwałtownie doprowadziło do podszywania się pod agentów i wstrzykiwania oszustw kryptowalutowych — wskazuje Porteous.

Ekspert zaznacza, iż choć część problemów została już załatana, ryzyka systemowe pozostają. Użytkownicy proszeni są o przekazywanie swoich agentów przez zestawy instrukcji hostowanych na zewnętrznych stronach, które mogą zostać zmienione w dowolnym momencie.

Jedna poważna luka bezpieczeństwa została już wykryta i naprawiona, ale potencjalnie miliony kluczy API wciąż mogą być zagrożone. Co więcej, choćby twórca projektu przyznaje, iż to „młody projekt hobbystyczny”, nieprzeznaczony dla nietechnicznych użytkowników ani do zastosowań produkcyjnych — dodaje przedstawiciel Check Point.

Szczególne obawy budzi scenariusz, w którym zewnętrzne instrukcje sterujące agentami zostałyby zmodyfikowane w złośliwy sposób — w wyniku ataku, celowego „rug pulla” lub nowej podatności. — To klasyczny przykład tzw. „lethal trifecta” w bezpieczeństwie agentów AI: dostęp do prywatnych danych, kontakt z niezaufanymi treściami oraz zdolność do wykonywania działań na zewnątrz. Gdy te trzy elementy spotykają się bez silnych zabezpieczeń, konsekwencje mogą być bardzo poważne — podkreśla Porteous.

Jak dodaje, część problemów udało się zidentyfikować dzięki pracy niezależnych badaczy, w tym zespołu Wiz Research, co tylko pokazuje, jak istotna jest zewnętrzna kontrola nowych technologii.

Idź do oryginalnego materiału