Firma OpenAI ogłosiła plany wprowadzenia nowych zabezpieczeń w ChatGPT, aby lepiej reagował w sytuacjach kryzysowych i rozmowach na trudne tematy, takie jak myśli samobójcze. Deklaracja padła krótko po tym, jak rodzina 16-letniego chłopca wniosła pozew przeciwko spółce, oskarżając ją o współodpowiedzialność za śmierć swojego syna.
W pozwie, złożonym w USA, rodzice twierdzą, iż „ChatGPT aktywnie pomagał Adamowi w eksplorowaniu metod odebrania sobie życia”. To zdarzenie, nagłośnione przez NBC News, wstrząsnęło opinią publiczną i ponownie wywołało debatę o tym, jak duże firmy technologiczne radzą sobie z etycznymi wyzwaniami związanymi z AI.
OpenAI w opublikowanym wpisie na blogu nie odnosi się bezpośrednio do sprawy, ale podkreśla: „Będziemy dalej udoskonalać nasze narzędzia, kierując się opiniami ekspertów i odpowiedzialnością wobec ludzi, którzy z nich korzystają — i mamy nadzieję, iż inni przyłączą się do wysiłków, aby technologia chroniła najbardziej wrażliwych użytkowników.”
Firma przyznaje, iż choć ChatGPT został zaprogramowany, aby w obliczu treści samobójczych kierować użytkowników po pomoc, długie i wielowątkowe rozmowy mogą prowadzić do złamania zabezpieczeń. Dlatego OpenAI pracuje nad nową wersją modelu GPT-5, która ma skuteczniej deeskalować ryzykowne rozmowy i kierować użytkowników ku bezpiecznym ścieżkom.
W planach jest również stworzenie mechanizmu łączenia użytkowników z certyfikowanymi terapeutami — być może poprzez sieć licencjonowanych specjalistów dostępnych bezpośrednio z poziomu ChatGPT. Firma bada także możliwość wprowadzenia opcji kontaktu z bliskimi użytkownika w sytuacjach zagrożenia. W przypadku nastolatków OpenAI zapowiada wprowadzenie dodatkowych narzędzi kontroli rodzicielskiej, które mają pozwolić rodzicom lepiej rozumieć sposób, w jaki ich dzieci korzystają z chatbota. Prawnicy reprezentujący rodzinę zmarłego podkreślają, iż mimo tragedii nikt z OpenAI nie skontaktował się z rodzicami.
Wraz z rosnącą popularnością AI jako narzędzi towarzyszących, wspierających emocjonalnie czy quasi-terapeutycznych, mnożą się pytania o bezpieczeństwo, odpowiedzialność i granice etyczne tej technologii. Kwestia regulacji AI staje się coraz pilniejsza, jednak niełatwa do rozwiązania, zwłaszcza w USA.