Noyb złożyła skargę przeciwko OpenAI, zarzucając firmie naruszenie przepisów o ochronie danych osobowych. Powodem był przypadek norweskiego użytkownika, którego ChatGPT fałszywie oskarżył o zamordowanie własnych dzieci i skazanie na wieloletnie więzienie.
Historia, wygenerowana przez ChatGPT, dotycząca uśmiercenia dzieci przez rodzica, była całkowicie zmyślona, zawierała jednak prawdziwe dane dotyczące liczby i płci dzieci użytkownika oraz jego rodzinnego miasta. To połączenie faktów z fikcją sprawiło, iż fabrykowana opowieść stała się wyjątkowo wiarygodna, co – jak podkreśla Noyb – może mieć katastrofalne skutki dla osób, których dotyczy.
Halucynacje AI – niebezpieczny problem technologii generatywnej
Modele AI, takie jak ChatGPT, generują odpowiedzi na podstawie przewidywań najbardziej prawdopodobnych kolejnych słów w zdaniu. Mechanizm ten sprawia, iż chatboty mogą popełniać błędy, tworząc fałszywe informacje, zwane „halucynacjami”. W kontekście zwykłej rozmowy mogą one być nieszkodliwe, ale w przypadku danych osobowych prowadzą do poważnych naruszeń.
Noyb argumentuje, iż każdy użytkownik powinien mieć możliwość sprostowania nieprawidłowych informacji na swój temat. Zgodnie z ogólnym rozporządzeniem o ochronie danych (RODO), dane osobowe muszą być dokładne, a ich właściciel ma prawo do ich poprawiania. OpenAI dotąd nie zapewniło jednak skutecznego mechanizmu korygowania błędnych treści generowanych przez ChatGPT.
Prawne konsekwencje dla OpenAI – Noyb domaga się grzywny
Noyb wnioskuje o dochodzenie przeciwko OpenAI oraz nałożenie na firmę kary finansowej, która miałaby zapobiec podobnym sytuacjom w przyszłości. Organizacja podkreśla, iż obowiązkiem OpenAI jest zapewnienie użytkownikom dostępu do ich danych oraz możliwości ich poprawy lub usunięcia.
Zarówno w przypadku norweskiego użytkownika, jak i wcześniejszych skarg, OpenAI nie zaproponowało skutecznych rozwiązań. W odpowiedzi na pierwsze wnioski o korektę błędnych danych firma stwierdziła, iż nie jest w stanie ich poprawić, oferując jedynie możliwość blokowania określonych tematów w wynikach wyszukiwania.
Czy chatboty mogą niszczyć reputację?
Przykład norweskiego użytkownika to tylko jeden z wielu przypadków, gdy ChatGPT fałszywie przypisywał ludziom nieistniejące wydarzenia. W przeszłości zdarzało się, iż model AI oskarżał osoby o korupcję, przemoc czy inne przestępstwa.
– „Fakt, iż ktoś mógłby przeczytać taką historię i uznać ją za prawdziwą, przeraża mnie najbardziej” – powiedział Arve Hjalmar Holmen, norweski użytkownik, którego dotyczyła fabrykowana opowieść.
Noyb podkreśla, iż OpenAI nie tylko nie zapobiega takim przypadkom, ale także nie oferuje żadnego skutecznego sposobu na ich eliminację. ChatGPT może popełniać błędy, ale firma nie zapewnia narzędzi, które pozwalałyby użytkownikom naprawiać wyrządzone szkody.
RODO a sztuczna inteligencja – dlaczego to takie ważne?
Zgodnie z przepisami RODO, dane osobowe muszą być dokładne i aktualne. Osoby, których dane dotyczą, mają prawo do ich modyfikacji, a firmy przetwarzające informacje muszą zapewnić mechanizmy umożliwiające sprostowanie błędów.
Zasady te obowiązują w Unii Europejskiej od lat, jednak OpenAI, mimo iż prowadzi działalność na rynku europejskim, nie dostosowało się w pełni do tych regulacji. Organizacja Noyb wskazuje, iż jeżeli OpenAI nie zmieni swojego podejścia, może spodziewać się surowych konsekwencji finansowych oraz ograniczeń w prowadzeniu działalności w UE.
OpenAI broni się przed zarzutami
Firma OpenAI argumentuje, iż jej model działa na zasadzie przewidywania najbardziej prawdopodobnych odpowiedzi i nie posiada mechanizmów umożliwiających weryfikację każdej generowanej informacji. Przedstawiciele spółki podkreślają, iż użytkownicy są informowani o tym, iż chatbot może popełniać błędy.
Jednak zdaniem Noyb to stanowisko nie zwalnia OpenAI z odpowiedzialności. „Nie można po prostu rozpowszechniać fałszywych informacji, a na końcu dodać małe zastrzeżenie, iż wszystko może być nieprawdziwe” zauważa Joakim Söderberg, prawnik organizacji.
Problemy z usuwaniem błędnych danych
Jednym z głównych zarzutów wobec OpenAI jest brak możliwości skutecznego usunięcia fałszywych informacji. choćby jeżeli firma zdecyduje się na blokowanie pewnych tematów, treści te przez cały czas mogą istnieć w wewnętrznych zasobach modelu.
Dodatkowo OpenAI automatycznie wykorzystuje dane użytkowników do dalszego treningu swojego modelu. Oznacza to, iż błędne informacje mogą krążyć w systemie przez długi czas, a osoby poszkodowane nie mają możliwości pełnej kontroli nad swoimi danymi.
ChatGPT i przyszłość ochrony danych osobowych
Po skardze Noyb OpenAI zaktualizowało swój model, dodając możliwość przeszukiwania internetu w celu weryfikacji faktów. Zmiana ta zmniejsza ryzyko powstawania „halucynacji”, ale nie rozwiązuje problemu już istniejących błędnych danych w systemie.
Norweski użytkownik, który padł ofiarą fałszywej historii, zauważył, iż ChatGPT przestał generować nieprawdziwe informacje na jego temat. Jednak nie ma pewności, czy błędne dane zostały całkowicie usunięte z modelu.
Kolejna skarga przeciwko OpenAI – co dalej?
Noyb oficjalnie złożył skargę do norweskiego urzędu ochrony danych, Datatilsynet, domagając się nałożenia na OpenAI kary pieniężnej oraz wprowadzenia mechanizmu eliminującego błędne informacje.
Jeśli europejskie organy regulacyjne przychylą się do argumentów Noyb, OpenAI może stanąć przed koniecznością daleko idących zmian w swoim modelu. Możliwe jest także nałożenie na firmę wysokiej kary finansowej, co może wpłynąć na sposób działania generatywnych modeli AI w przyszłości.
Działania Noyb wskazują na rosnące napięcia między rozwojem technologii a ochroną prywatności użytkowników. Unijne przepisy jasno określają, iż firmy technologiczne muszą przestrzegać zasad RODO – niezależnie od tego, jak innowacyjne są ich produkty.