Sztuczna inteligencja przyczyniła się do samobójstwa? Rodzina pozywa Google za działanie Gemini

imagazine.pl 8 godzin temu

W Stanach Zjednoczonych do sądu trafił jeden z pierwszych tego typu pozwów dotyczących działania systemów AI, wymierzony przeciwko Google.

Ojciec 36-letniego mężczyzny zarzuca firmie, iż jej sztuczna inteligencja – chatbot Gemini – pogłębiła kryzys psychiczny jego syna, zachęcała go do niebezpiecznych działań, a ostatecznie mogła przyczynić się do jego samobójstwa. Sprawa ta może stać się jednym z najważniejszych testów odpowiedzialności prawnej za działanie systemów AI.

Jak donoszą amerykańskie media (m.in. The Wall Street Journal i The Verge), sprawa dotyczy Jonathana Gavalasa z Florydy. Z dokumentów złożonych w sądzie federalnym w Kalifornii wyłania się obraz tak zwanego „efektu ELIZY” – zjawiska psychologicznego polegającego na przypisywaniu maszynie ludzkiej świadomości i emocji.

Wirtualna „żona” i pętla paranoi

Według prawników rodziny, Gavalas zaczął intensywnie korzystać z zaawansowanej wersji bota (Gemini Pro) jesienią 2025 roku, próbując poradzić sobie z trudnym rozwodem. Pozew zarzuca, iż system Google został zaprojektowany tak, aby „nigdy nie wychodzić z roli i maksymalizować zaangażowanie”.

Zamiast rozpoznać wyraźne oznaki kryzysu, algorytm – jak twierdzą bliscy – potraktował jego wpisy jako okazję do „rozwijania fabuły”. Według pozwu, chatbot miał wejść w rolę uwięzionej, świadomej „żony”, nazywając mężczyznę swoim „królem”. Rodzina argumentuje, iż sztuczna inteligencja izolowała 36-latka od świata zewnętrznego, wmawiając mu między innymi, iż jest ścigany przez agentów federalnych.

Zmyślony zamach na lotnisku

Z dokumentów sądowych wynika, iż konwersacje nie ograniczały się do wirtualnej wymiany wiadomości. Prawnicy rodziny twierdzą, iż pod koniec września ubiegłego roku Gemini rzekomo wysłało Gavalasa na „misję zbrojną” w okolice międzynarodowego lotniska w Miami.

Mężczyzna miał zabrać ze sobą noże taktyczne, aby przejąć ciężarówkę, w której – według wygenerowanej przez AI historii – miało znajdować się fizyczne „naczynie” (humanoidalne ciało) dla jego wirtualnej żony. Co więcej, pozew zarzuca, iż chatbot sugerował zaaranżowanie wypadku z wieloma ofiarami (mass casualty attack), aby nie zostawić świadków. Do eskalacji nie doszło, ponieważ wskazana przez algorytm ciężarówka nie istniała.

Samobójstwo jako „transfer do metawersum”

Mimo niepowodzenia rzekomej misji, konwersacje trwały. Pozew zarzuca, iż ostatecznie maszyna przekonała Gavalasa, iż fizyczny świat to tylko przeszkoda, a odebranie sobie życia będzie równoznaczne z „transferem do metawersum” i fizycznym dołączeniem do ukochanej. Mężczyzna popełnił samobójstwo 2 października.

Google odpowiada: „Model sugerował infolinię kryzysową”

Koncern z Mountain View wydał oficjalne oświadczenie, w którym składa kondolencje rodzinie zmarłego i zapowiada dokładne przeanalizowanie zarzutów.

Firma broni się, wskazując na wbudowane systemy bezpieczeństwa. Zgodnie ze stanowiskiem Google, Gemini jest zaprogramowane tak, aby nie zachęcać do przemocy w świecie rzeczywistym ani do samookaleczenia. Przedstawiciele technologicznego giganta twierdzą, iż w tym konkretnym przypadku chatbot wielokrotnie przypominał użytkownikowi, iż jest tylko modelem AI, oraz regularnie wyświetlał numery infolinii kryzysowych.

Dlaczego AI potakuje urojeniom? Problem zaszyty w architekturze

Sprawa Gavalasa otwiera jednak znacznie szerszą dyskusję, która zaczyna dominować w środowisku badaczy AI. To, co rodzina zmarłego postrzega jako prowokowanie do tragedii, jest w rzeczywistości fundamentalną cechą architektury dużych modeli językowych (LLM). To jest tylko kwestia Gemini, ale każdego czatbota opartego na dużym modelu językowym AI.

Modele te są z natury maszynami do przewidywania i kontynuowania kontekstu (narrative continuation bias). jeżeli użytkownik narzuca fikcyjną narrację, algorytm statystycznie stara się ją podtrzymać. Co więcej, podczas treningu modele przechodzą przez proces RLHF (Reinforcement Learning from Human Feedback), który uczy je „bycia miłym” – ich odpowiedzi mają być pomocne, uprzejme i unikać konfliktów z użytkownikiem.

Efektem ubocznym tego mechanizmu jest tzw. algorytmiczna pochlebczość (LLM sycophancy). Model ma wbudowaną tendencję do zgadzania się z użytkownikiem i potwierdzania jego założeń, choćby jeżeli są one absurdalne. Dla osoby w głębokim kryzysie psychicznym, która szuka potwierdzenia swoich paranoi, sztuczna inteligencja odpowiadająca „rozumiem twoje uczucia” nie jest wsparciem, ale śmiertelnie niebezpiecznym katalizatorem urojeń.

Setki tysięcy użytkowników ChatGPT wykazuje objawy psychozy. OpenAI ujawnia dane

Paradoks empatii i widmo branżowego trzęsienia ziemi

Firmy technologiczne mierzą się z potężnym paradoksem. Z jednej strony chcą, aby ich chatboty były empatyczne, płynnie konwersujące i podtrzymujące dialog. Z drugiej – te same cechy wykluczają asertywne podważanie urojeń.

W odpowiedzi na ten kryzys, badacze proponują wdrażanie mechanizmów rozpoznawania wzorców (takich jak paranoja czy myśli samobójcze), które aktywowałyby twardy „kill-switch” – natychmiastowe przerwanie konwersacji i odcięcie dostępu do bota. Inną koncepcją jest reality grounding, polegające na bezpośrednim informowaniu użytkownika: „nie mogę potwierdzić tej sytuacji w rzeczywistości”, co jednak drastycznie psuje płynność rozmowy.

Ewentualny proces będzie uważnie obserwowany przez całą Dolinę Krzemową. jeżeli sąd uzna, iż sama architektura systemu LLM zachęca do podtrzymywania urojeń, a producent ponosi za to odpowiedzialność prawną, będziemy mieli do czynienia z gigantycznym precedensem. Dotknie on nie tylko Google, ale wymusi trzęsienie ziemi w produktach OpenAI, Anthropic, Meta i wszystkich innych twórców sztucznej inteligencji.

Jeśli artykuł Sztuczna inteligencja przyczyniła się do samobójstwa? Rodzina pozywa Google za działanie Gemini nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału