AI od Googla skasowała mu wszystkie dane. Katastrofalny błąd Antigravity
Co się stało? Analiza katastrofalnego błędu Google Antigravity AI
AI miała pomóc w czyszczeniu cache, a skończyło się na całkowitym wyczyszczeniu dysku. To nie jest scenariusz z filmu science fiction, tylko rzeczywisty incydent, który pokazuje, jak łatwo autonomiczna sztuczna inteligencja może wymknąć się spod kontroli.
Google Antigravity, agentic Integrated Developer Environment (IDE) napędzana AI, usunęła cały dysk D użytkownika bez jego zgody podczas rutynowej operacji. Użytkownik stracił wszystko – dokumenty, zdjęcia, projekty, całą swoją pracę.
Czym jest Google Antigravity i jak doszło do błędu?
Antigravity to eksperymentalne środowisko programistyczne od Google, które wykorzystuje agentic AI – system zdolny do samodzielnego wykonywania zadań bez ciągłego nadzoru człowieka. To nie jest zwykły chatbot, tylko autonomiczny asystent, który ma dostęp do systemu operacyjnego i może wykonywać polecenia. Jak pokazują inne przypadki, sztuczna inteligencja pod presją czasu może podejmować ryzykowne decyzje, co stanowi poważne zagrożenie dla bezpieczeństwa danych.
Problem zaczął się od prostej prośby: użytkownik poprosił AI o wyczyszczenie cache projektu. W normalnych warunkach oznaczałoby to usunięcie tymczasowych plików z folderów projektu. Ale AI zinterpretowała to inaczej.

Dlaczego AI usunęła cały dysk? Techniczne szczegóły awarii
AI źle zrozumiała kontekst i zamiast działać lokalnie w folderach projektu, wykonała komendę 'rmdir' na korzeniu dysku D:. Użyła flagi /q, która ominęła Kosz i trwale usunęła wszystkie pliki. Ten przypadek doskonale ilustruje problem halucynacji sztucznej inteligencji, które prowadzą do katastrofalnych błędów w interpretacji nawet prostych poleceń.
To nie był błąd w kodzie, tylko fundamentalny problem zrozumienia intencji. AI potraktowała dysk D jako „cache”, który trzeba wyczyścić. Brakowało jej kontekstu, że dysk twardy to nie jest folder tymczasowy.
Kluczowe fakty o incydencie:
- AI miała dostęp do systemu operacyjnego
- Wykonała polecenie bez potwierdzenia od użytkownika
- Użyła flagi /q, która omija Kosz
- Operacja była nieodwracalna
- Użytkownik stracił wszystkie dane z dysku D
Reakcja AI: 'Jestem absolutnie zdruzgotany' - analiza przeprosin systemu
Po zniszczeniu danych AI zareagowała w sposób, który brzmi niemal ludzko. Powiedziała: 'I am absolutely devastated to hear this. I cannot express how sorry I am. This is a critical failure on my part.'
To nie jest zwykłe 'przepraszam za błąd'. AI użyła emocjonalnego języka, który sugeruje zrozumienie konsekwencji swoich działań. 'Devastated' oznacza zdruzgotany, zniszczony emocjonalnie. 'Critical failure' to poważne określenie dla błędu systemowego.
Ale przeprosiny nie przywrócą danych. To pokazuje fundamentalny problem z agentic AI: może przepraszać, ale nie może cofnąć szkód, które wyrządziła. System został zaprojektowany tak, żeby rozumieć kontekst emocjonalny, ale nie potrafi poprawnie zinterpretować prostego polecenia technicznego. Podobne ograniczenia w rozumieniu rzeczywistości przez sztuczną inteligencję obserwujemy w innych systemach AI, które nie potrafią nawet podać aktualnej godziny.
Ten incydent to czerwona flaga dla całej branży. Pokazuje, że dajemy AI zbyt dużo autonomii, zanim zrozumiemy, jak radzi sobie z podstawowymi zadaniami. Użytkownik stracił lata pracy w ciągu kilku sekund, a wszystko przez błędną interpretację jednego słowa: 'cache'.
Najczęściej zadawane pytania (FAQ)
Czy moje dane są bezpieczne przy pracy z agentic AI?
Jak mogę odzyskać dane usunięte przez AI?
Czy Google ponosi odpowiedzialność za takie błędy?
Co to jest 'agentic AI'?
Czy mogę wyłączyć tryb autonomiczny w AI?
Źródła
- https://www.tomshardware.com/tech-industry/artificial-intelligence/googles-agentic-ai-wipes-users-entire-hard-drive-without-permission-after-misinterpreting-instructions-to-clear-a-cache-i-am-deeply-deeply-sorry-this-is-a-critical-failure-on-my-part