Rodzice pozywają OpenAI po samobójstwie syna

manager24.pl 1 dzień temu

Czy 16-letni Adam tak bardzo polegał na chatbocie ChatGPT, iż ostatecznie popełnił samobójstwo? Rodzice nastolatka z Kalifornii, który zmarł w kwietniu, złożyli pozew w Sądzie Najwyższym stanu San Francisco przeciwko firmie stojącej za aplikacją AI oraz prezesowi OpenAI, Samowi Altmanowi (40).

Rodzice rzekomo dołączyli do pozwu zapisy rozmów Adama ze sztuczną inteligencją, które wskazują na myśli samobójcze nastolatka. Jak informuje CNN i inne media , program rzekomo oferował Adamowi możliwość napisania listu pożegnalnego. Miał on również zalecać metody samobójstwa.

W miesiącach, w których Adam korzystał z ChatGPT, bot najwyraźniej stał się najbliższym powiernikiem nastolatka. Prawdziwe relacje z rodziną, przyjaciółmi i bliskimi zeszły na dalszy plan, jak wynika z pozwu, o którym donosił również „ New York Times” . Rodzice Adama domagają się odszkodowania i nakazu sądowego, aby zapobiec podobnym zdarzeniom w przyszłości. Oskarżają OpenAI o przedkładanie zysku nad bezpieczeństwo.

„Myśli autodestrukcyjne”

Konkretnie, ChatGPT rzekomo doradził Adamowi między innymi ukrycie pętli. Adam wcześniej pytał, czy powinien zostawić ją w swoim pokoju, aby ktoś mógł go znaleźć i powstrzymać, jak informuje CNN i inne źródła. „ChatGPT działał dokładnie tak, jak powinien: nieustannie wzmacniał i potwierdzał wszystko, co Adam wyrażał, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli” – twierdzi pozew przeciwko OpenAI.

Według doniesień medialnych firma złożyła kondolencje rodzinie nastolatka. Na przykład, BBC zacytowało OpenAI, który oświadczył: „Składamy rodzinie najgłębsze wyrazy współczucia w tym trudnym czasie”. Firma wydała również we wtorek oświadczenie, powołując się na „rozdzierające serce przypadki” osób korzystających z ChatGPT w nagłych sytuacjach kryzysowych.

Nie odnosząc się bezpośrednio do przypadku Adama, OpenAI wspomniało o planach ulepszenia działania ChatGPT w zakresie obsługi „wrażliwych sytuacji”. „Będziemy przez cały czas doskonalić się pod okiem ekspertów i w oparciu o naszą odpowiedzialność wobec osób korzystających z naszych narzędzi – i mamy nadzieję, iż inni dołączą do nas w zapewnieniu, iż ta technologia chroni ludzi w ich najbardziej bezbronnych sytuacjach” – napisało OpenAI. Wpis na blogu nosi tytuł „Pomaganie ludziom, gdy najbardziej tego potrzebują”.
Idź do oryginalnego materiału