Dane użytkowników ChatGPT dostępne publicznie – rosnące obawy o prywatność
W połowie 2025 roku OpenAI wprowadziło w aplikacji ChatGPT opcję udostępniania rozmów przez link „Share”, zawierającą pole wyboru „Make this chat discoverable”. jeżeli użytkownik zaznaczył ten checkbox, link mógł zostać zaindeksowany przez wyszukiwarki internetowe, takie jak Google czy Bing. Choć była to funkcja opt‑in, wielu użytkowników nie zdawało sobie sprawy, iż ich rozmowy stają się dostępne publicznie.
Dzięki prostym wyszukiwaniom, dziennikarze i entuzjaści odnaleźli tysiące publicznych konwersacji – często zawierających dane wrażliwe, takie jak nazwiska, adresy e‑mail, opisy traumy, problemy zdrowia psychicznego, informacje firmowe czy prywatne rozważania użytkowników.
Reakcja OpenAI
Kilka dni po ujawnieniu problemu OpenAI:
wyłączyło funkcję „Make discoverable”,
zablokowało możliwość indeksowania nowych linków,
rozpoczęło działania mające na celu usunięcie wcześniej opublikowanych linków z wyszukiwarek,
potwierdziło, iż była to jedynie krótka faza testowa.
Jakie dane zostały ujawnione?
Publiczne konwersacje dotyczyły:
kilkudziesięciu tysięcy rozmów,
treści o charakterze osobistym: aplikacje o pracę, wyznania terapeutyczne, opisy sytuacji rodzinnych,
danych pozwalających zidentyfikować użytkowników, mimo iż OpenAI nie przypisywało nazwisk do udostępnionych treści.
Czy ChatGPT dalej przechowuje i analizuje dane?
Tak. choćby po usunięciu czatu z konta, OpenAI może przechowywać i analizować dane przez 30 dni lub dłużej – jeżeli wymagają tego kwestie bezpieczeństwa lub przepisy prawne. Usunięcie rozmowy z konta nie oznacza automatycznego usunięcia publicznego linku – trzeba to zrobić manualnie w ustawieniach, w zakładce „Data Controls” → „Shared Links”.
Jak zabezpieczyć swoje dane?
Sprawdź ustawienia konta i usuń wszystkie udostępnione wcześniej linki.
Unikaj wprowadzania wrażliwych informacji w rozmowach z AI.
Traktuj interakcje z ChatGPT jak publiczne dokumenty – nie prywatne zapiski czy rozmowy terapeutyczne.
Bądź czujny – śledź zmiany w aplikacji i nowe funkcje, które mogą wpływać na prywatność.
Nawet świadome korzystanie z funkcji „Share” mogło prowadzić do niezamierzonego ujawnienia danych.
Interfejs użytkownika nie ostrzegał wystarczająco jasno o skutkach włączenia opcji „Make discoverable”.
OpenAI podjęło działania naprawcze, jednak część danych mogła już trafić w niepowołane ręce.
Wciąż istnieją inne ryzyka związane z przechowywaniem i analizą danych użytkowników przez firmę.