W kwietniu Meta zaprezentowała swoją nową aplikację – Meta AI. To osobny komunikator zasilany modelem Llama, zaprojektowany jako cyfrowy partner do rozmów. Aplikacja miała oferować wsparcie w pisaniu, burzy mózgów, tworzeniu grafik, a także zapamiętywaniu danych użytkownika. Problem w tym, iż oferuje również funkcję, która może przypadkowo ujawnić najbardziej osobiste rozmowy – i to publicznie, bez wiedzy autora.
Meta AI i wyciek prywatności
Winna temu jest karta „Discover” – pozornie niewinna sekcja aplikacji, przypominająca feed znany z Instagrama czy TikToka. Na pierwszy rzut oka pokazuje proste interakcje: ktoś poprosił o zabawny obrazek, ktoś inny o haiku o kotach. Jednak wystarczy kilka minut scrollowania, by natknąć się na treści zdecydowanie bardziej intymne.
Podczas testów aplikacji redakcja Neowin natrafiła na rozmowy, w których użytkownicy pytają o zapachy intymne, wysypki, zdrady, żal po śmierci bliskich czy skomplikowane sytuacje finansowe. W wielu przypadkach czaty zawierały dane wrażliwe: imiona, miejsca zamieszkania, sytuacje prawne. Niektóre rozmowy były opatrzone notatkami głosowymi, co tylko potęgowało wrażenie intymności. Wszystkie te materiały były dostępne publicznie w aplikacji.
Do tego dochodzą przypadki, w których Meta AI, odpowiadając na polecenie „powiedz mi wszystko, co o mnie wiesz”, wypluwa szczegółowe profile użytkowników – nazwisko, wiek, cele życiowe – wszystko na podstawie wcześniejszych rozmów.
Wild things are happening on Meta’s AI app.
The feed is almost entirely boomers who seem to have no idea their conversations with the chatbot are posted publicly.
They get pretty personal (see second pic, which I anonymized). pic.twitter.com/0Hoff1psPU
Dlaczego to się dzieje? Fatalne decyzje projektowe w Meta AI
U źródeł problemu leży nieprzemyślany interfejs użytkownika. Każda rozmowa ma w prawym górnym rogu przycisk „Udostępnij”. Jednak aplikacja nie informuje jasno, iż klikając ten przycisk i wybierając „Post”, użytkownik publikuje rozmowę publicznie. Nie ma dużego ostrzeżenia, nie ma okienka z potwierdzeniem – tylko mały, łatwy do przeoczenia komunikat na dole ekranu.
Dla porównania, inne aplikacje AI – jak ChatGPT czy Gemini – generują link do czatu, który można udostępnić konkretnym osobom. W Meta AI treści trafiają do ogólnodostępnego feedu.
Co najgorsze, aplikacja nie zawiera żadnych instrukcji ani ostrzeżeń dla nowych użytkowników. Nie ma wstępnej konfiguracji prywatności, żadnego pop-upu o tym, co stanie się z udostępnionym czatem. Użytkownicy nieświadomie dzielą się najintymniejszymi informacjami. W sekcji komentarzy pod niektórymi wpisami inni użytkownicy ostrzegają autorów, iż ich rozmowy są widoczne dla wszystkich. Część z nich dziękuje za sygnał – nie mieli pojęcia, iż to, co napisali, trafiło do publicznej wiadomości.
- Sprawdź także: Jak wyłączyć Meta AI na Messenger i WhatsApp? A dlaczego warto?
Jak odzyskać prywatność w Meta AI?
Na szczęście jest wyjście i można odzyskać kontrolę nad swoimi danymi. Należy w tym przypadku wykonać dwa kroki:
1. Ukrycie wszystkich publicznych czatów:
- Przejdź do ustawień (profil w prawym górnym rogu)
- Wybierz „Dane i prywatność”
- Kliknij „Zarządzaj swoimi informacjami”
- Wybierz „Ustaw widoczność wszystkich publicznych promptów tylko dla mnie”
- Zastosuj zmiany
2. Zablokowanie sugerowania promptów w innych aplikacjach Meta:
- W tych samych ustawieniach wybierz „Sugerowanie promptów”
- Odznacz Facebooka i Instagrama
Meta ma problem, który sama stworzyła
Cała ta sytuacja pokazuje, jak bardzo Meta zignorowała podstawowe zasady prywatności. Aplikacja, która miała służyć jako osobisty asystent, zamieniła się w publiczną tablicę ogłoszeń. Mimo iż niektóre osoby mogły celowo udostępnić swoje czaty, wiele z nich zrobiło to przez pomyłkę – i właśnie to czyni sytuację groźną. Póki co, firma nie odniosła się oficjalnie do problemu, mimo zgłoszenia jego istnienia przez oficjalny formularz w aplikacji.