
Anthropic zadeklarował, iż nie da szerokiego dostępu do swojego arcyniebezpiecznego modelu AI Claude Mythos. Więc internet sam się obsłużył.
Kilka dni temu Anthropic zaskoczyło świat, ogłaszając, iż jej nowy model AI Claude Mythos nie zostanie wydany publicznie. Mythos ma być „zbyt potężny”, by oddać go w ręce zwykłych śmiertelników – choćby tych płacących. Jedynymi jednostkami mającymi do niego dostęp są pracownicy wybranych partnerów Anthropic w ramach projektu Glasswing. To wersja oficjalna.
Bo nieoficjalna jest taka, iż Claude Mythos wesoło hula sobie w rękach osób trzecich
O tym informuje Bloomberg, który dotarł do osoby mającej dostęp do modelu oraz dokumentacji potwierdzającej nieautoryzowane użycie. Według ustaleń niewielka grupa użytkowników uzyskała dostęp do Claude Mythos już w dniu ogłoszenia programu Glasswing i korzysta z niego od tego czasu.
Dostęp miał zostać zdobyty przy użyciu kilku metod jednocześnie. Kluczową rolę odegrało uprawnienie jednej z osób pracujących dla zewnętrznego kontraktora współpracującego z Anthropic. Użytkownicy wykorzystali również narzędzia analityczne powszechnie stosowane przez badaczy bezpieczeństwa oraz informacje pozyskane z wycieków danych, w tym z incydentu w firmie Mercor.
Na podstawie tych danych grupa odgadła lokalizację modelu w infrastrukturze online i uzyskała do niego dostęp. Według źródła cytowanego przez Bloomberga użytkownicy działają na zamkniętym serwerze na Discordzie, gdzie od dłuższego czasu zbierają informacje o niewydanych modelach AI, przeszukując m.in. publiczne repozytoria takie jak GitHub.
Anthropic potwierdziło, iż bada sprawę. Firma wskazuje, iż potencjalne naruszenie dotyczy środowiska jednego z zewnętrznych dostawców i nie ma dowodów na dostęp do głównych systemów ani infrastruktury modelu. Jednocześnie nie ujawniono, czy skala problemu ogranicza się do jednego przypadku.
Według informacji Bloomberga osoby korzystające z modelu nie wykorzystują jego zaawansowanych funkcji związanych z cyberbezpieczeństwem. Zamiast tego testują go przy prostszych zadaniach, takich jak generowanie stron internetowych, co ma ograniczyć ryzyko wykrycia nieautoryzowanego dostępu.
Sprawa podważa założenia stojące za projektem Glasswing, w ramach którego dostęp do Claude Mythos miał być ściśle kontrolowany i ograniczony do wybranych organizacji, takich jak Amazon, Apple czy Cisco. Model miał służyć do wykrywania i łatania krytycznych podatności w oprogramowaniu. Nie jest jasne czy istnieją jeszcze inne grupy osób, które również uzyskały nieautoryzowany dostęp do Mythos ani jakie mogą być konsekwencje takiego naruszenia.
Anthropic nie podał szczegółów dotyczących ewentualnych działań naprawczych ani środków zabezpieczających wdrożonych po wykryciu incydentu.
Więcej na temat sztucznej inteligencji (AI):
