Niefortunny incydent w Deloitte. “Halucynacje AI” w raporcie dla rządu za 440 tys. dolarów

itreseller.com.pl 3 godzin temu

Deloitte musi zwrócić australijskiemu rządowi część wynagrodzenia za przygotowanie raportu, który zawierał liczne błędy wygenerowane przez sztuczną inteligencję, w tym fałszywe cytaty i nieistniejące źródła. Kompromitująca wpadka, dotycząca kontraktu o wartości blisko 440 tys. dolarów australijskich, wywołała debatę na temat braku nadzoru nad wykorzystaniem AI w profesjonalnych usługach.

Sprawa wyszła na jaw, gdy w raporcie przygotowanym przez Deloitte dla australijskiego Departamentu Zatrudnienia i Relacji w Miejscu Pracy (DEWR) wykryto rażące błędy. Analiza, zamówiona w grudniu 2024 roku, dotyczyła systemu automatyzacji kar dla osób poszukujących pracy. W lipcu 2025 roku, po publikacji dokumentu, dr Chris Rudge z Uniwersytetu w Sydney zidentyfikował w nim fałszywe cytaty, odniesienia do nieistniejących prac naukowych, a choćby zmyślony wyrok sądowy – klasyczne przykłady tzw. halucynacji AI. Po nagłośnieniu sprawy, Deloitte opublikowało poprawioną wersję raportu, przyznając w jednym z załączników, iż podczas prac korzystano z modelu językowego Azure OpenAI GPT-4o.

Konsekwencją wpadki jest konieczność zwrotu ostatniej transzy wynagrodzenia w ramach kontraktu o wartości 439 tys. dolarów australijskich (ok. 290 tys. USD). Przedstawiciele firmy Deloitte potwierdzili, iż niektóre przypisy i odniesienia były nieprawidłowe, jednocześnie utrzymując, iż nie wpłynęło to na ostateczne wnioski i rekomendacje zawarte w raporcie. Sprawa wywołała jednak ostrą reakcję polityków. Senator Deborah O’Neill stwierdziła, iż Deloitte ma “problem z ludzką inteligencją” i ironicznie zasugerowała, iż zamiast zatrudniać wielką firmę doradczą, rząd mógłby “po prostu wykupić subskrypcję ChataGPT”.

Incydent w Australii rzuca cień na globalne starania branży konsultingowej w zakresie wdrażania sztucznej inteligencji. Kompromitacja zbiegła się także w czasie z ogłoszeniem przez Deloitte globalnego partnerstwa z firmą Anthropic, mającego na celu udostępnienie chatbota Claude wszystkim, a więc blisko półmilionowej kadrze pracowników firmy. Sytuacja ta staje się głośnym ostrzeżeniem dla korporacji, pokazując, iż pośpieszne wdrażanie narzędzi AI bez odpowiednich procedur weryfikacyjnych i ludzkiego nadzoru może prowadzić nie tylko do błędów merytorycznych, ale także do poważnych strat finansowych i wizerunkowych.

Idź do oryginalnego materiału