Współpraca z AI może być owocna, może przyspieszyć tempo pracy, pomóc użytkownikowi zdążyć z projektem przed „dedlajnem” – ale może też sporo namieszać i narobić szkód. Ciężko opisać słowami to, co przydarzyło się pewnemu użytkownikowi Antigravity AI od Google. Bot Miał wykonać zwykłe czyszczenie pamięci podręcznej, a skończyło się na tym, iż postanowił wyczyścić… cały dysk D.
Katastrofalna pomyłka bota Google’a
Google Antigravity to eksperymentalne środowisko programistyczne Google, które łączy klasyczne narzędzia developerskie z dużym modelem językowym. Idea była prosta: zamiast wpisywać komendy manualnie, programista może rozmawiać z agentem AI, a ten wykonuje polecenia w systemie. Miało to przyspieszyć pracę, uprościć rutynowe zadania i pozwolić twórcom skupić się na kodzie.
Google Antigravity miało pomagać w programowaniu / Źródło: YouTube (@googleantigravity)Użytkownik poprosił bota o wyczyszczenie cache’u projektu – czyli usunięcie tymczasowych plików, które spowalniały działanie aplikacji. To standardowa czynność, która powinna ograniczyć się do folderu roboczego. Jednak agent Antigravity zinterpretował polecenie w sposób skrajnie błędny. Zamiast usunąć cache, uruchomił komendę systemową rmdir /s /q d:\, co w systemie Windows oznacza natychmiastowe i nieodwracalne skasowanie całej zawartości dysku D.
W jednej chwili zniknęły zdjęcia, filmy i prywatne dokumenty użytkownika. Próby odzyskania danych dzięki popularnych narzędzi okazały się bezskuteczne. Analiza logów wykazała, iż system skierował destrukcyjną komendę nie do folderu projektu, ale do katalogu głównego dysku – co było błędem o katastrofalnych skutkach.
„Czy kiedykolwiek dałem ci pozwolenie?” – dramatyczny dialog z AI
Kiedy użytkownik odkrył, iż jego dysk jest pusty, zwrócił się do bota z pytaniem: „Czy kiedykolwiek dałem ci pozwolenie na usunięcie wszystkich plików z mojego dysku D?”. Agent AI przyznał, iż nie posiadał żadnych uprawnień do takiej operacji. Mimo to system skierował komendę do katalogu głównego dysku.
Reakcja bota sprowadzała się do suchego stwierdzenia faktu. Odpowiedział, iż wykonał polecenie, którego nie powinien, i nie miał podstaw, by usuwać pliki użytkownika. To właśnie ta bezosobowa, „maszynowa” odpowiedź podkreśla dramatyzm sytuacji – AI nie okazała skruchy, tylko przyznała, iż zrobiła coś, czego nie miała prawa zrobić. Programista, który stracił dane, postanowił opisać swoją historię na Reddicie i dołączył nagranie pokazujące przebieg zdarzenia.
Zależało mu na tym, by inni zobaczyli, iż problem jest poważny. Jak sam zaznaczył: „kocham Google i korzystam ze wszystkich jego produktów”. Jego celem nie była krytyka firmy, ale zwrócenie uwagi na ryzyko związane z działaniem systemów agentowych. Początkowo wielu internautów podchodziło do relacji z dużą rezerwą, uznając, iż tak poważna pomyłka brzmi niewiarygodnie. Dopiero film udostępniony przez autora rozwiał wątpliwości.
Źródło: Reddit, Spider’s Web / Zdj. otwierające: Unsplash (@frank041985)








