Ochrona prywatności Apple Intelligence wyznacza nowe standardy, ale nie jest idealna

cyberfeed.pl 2 dni temu


Inteligencja Apple prywatność jest silniejsza niż w przypadku jakiejkolwiek innej firmy zajmującej się sztuczną inteligencją, ale choćby jej bezpieczeństwo ochrona nie jest doskonała, gdy w grę wchodzi ChatGPT.

Taki argument przedstawił szef ds. bezpieczeństwa w Inrupt, Prywatność– firma skoncentrowana na technologii, której współzałożycielem jest wynalazca sieci WWW, Tim Berners-Lee …

Ochrona prywatności Apple Intelligence

Opisaliśmy już trzystopniową hierarchię funkcji sztucznej inteligencji firmy Apple:

  1. Maksymalnie możliwe przetwarzanie odbywa się na urządzeniu, bez przesyłania danych do serwerów
  2. Jeśli potrzebna jest zewnętrzna moc obliczeniowa, następnym rozwiązaniem są własne serwery Apple
  3. Jeśli nie mogą pomóc, użytkownicy są poprosił o pozwolenie aby użyć ChatGPT

Wyjaśniliśmy również „nadzwyczajny krok” podjęte przez Apple w celu ochrony prywatności klientów, gdy zadania są obsługiwane przez własne serwery AI firmy, Private Cloud Compute.

Ponadto, gdy żądania są przekazywane do ChatGPT, obowiązują dalsze zabezpieczenia. Apple anonimizuje wszystkie przekazania ChatGPT, więc serwery OpenAI nie mają pojęcia, kto złożył konkretne żądanie ani kto otrzymuje odpowiedź.

Umowa Apple z OpenAI gwarantuje również, iż dane z tych sesji nie będą wykorzystywane jako materiał szkoleniowy dla modeli ChatGPT.

Ale Inrupt twierdzi, iż przez cały czas istnieją zagrożenia dla prywatności

Tim Berners-Lee jest uznawany za wynalazcę sieci WWW. W 2018 r. skupił się na ochronie prywatności użytkowników Internetu, współtworząc firmę o nazwie Inrupt, która ma się na tym skupić. dając użytkownikom pełną kontrolę nad wykorzystaniem ich danych osobowych. Postęp od tego czasu niestety jest powolny.

Bruce Schneier, szef działu bezpieczeństwa w firmie Inrupt, twierdzi, iż zabezpieczenia prywatności Apple Intelligence są imponujące, ale nie idealne.

Apple stworzyło „całkiem imponujący system prywatności” dla swojej AI, mówi Schneier. „Ich celem jest, aby korzystanie z AI — choćby w ich chmurze — nie było mniej bezpieczne niż bezpieczeństwo telefonu. Jest w tym wiele ruchomych części, ale myślę, iż poradzili sobie całkiem nieźle” […]

W przypadku niektórych danych „jesteś ograniczony zasadami OpenAI” — mówi Schneier. „Apple usuwa informacje identyfikacyjne podczas wysyłania zapytań do OpenAI, ale w wielu zapytaniach jest wiele informacji identyfikacyjnych”.

Zasadniczo im bardziej osobiste jest dla Ciebie zapytanie AI, tym większe ryzyko, iż ktoś Cię rozpozna na podstawie jego treści.

Na przykład, jeżeli poprosisz ChatGPT o pomoc w zaplanowaniu trasy na krótki wypad do miasta, sam fakt, iż jesteś w konkretnym mieście w konkretny weekend i masz wyszczególnione swoje zainteresowania, może wystarczyć, by ktoś, kto cię zna, mógł cię zidentyfikować.

Opinia 9to5Mac

Żaden system ochrony prywatności nie jest doskonały i z pewnością prawdą jest, iż odpowiednia kombinacja danych w sesji ChatGPT może Cię zidentyfikować u kogoś, kto już sporo o Tobie wie. Podejście z pewną ostrożnością do danych osobowych, którymi dzielisz się w sesjach AI, jest rozsądne.

Powiedziawszy to, należy zauważyć, iż Inrupt ma osobisty interes w tym, aby nie być całkowicie przekonanym do środków ostrożności dotyczących prywatności kogokolwiek, ponieważ firma naciska konkretny model swojego własnego.

Faktem jest, iż Apple oferuje wyższy standard ochrony prywatności niż ktokolwiek inny na rynku i spodziewam się, iż tak pozostanie, gdy pojawią się nowe pomysły.

FTC: Używamy linków afiliacyjnych generujących dochód. Więcej.



Source link

Idź do oryginalnego materiału