Meta Platforms nie uruchomi na razie swoich modeli Meta AI w Europie po tym, jak irlandzki organ regulacyjny ds. prywatności nakazał mu opóźnić plan wykorzystania danych od użytkowników Facebooka i Instagrama, poinformowała w piątek amerykańska firma zajmująca się mediami społecznościowymi.
Posunięcie Meta nastąpiło po skargach i wezwaniu przez grupę rzeczników NOYB do organów ochrony danych w Austrii, Belgii, Francji, Niemczech, Grecji, Włoszech, Irlandii, Holandii, Norwegii, Polsce i Hiszpanii o podjęcie działań przeciwko firmie.
Kwestią sporną jest plan Meta dotyczący wykorzystania danych osobowych do szkolenia modeli sztucznej inteligencji (AI) bez ubiegania się o zgodę, chociaż firma stwierdziła, iż wykorzysta publicznie dostępne i licencjonowane informacje online.
Meta poinformowała w piątek, iż irlandzki organ nadzorujący prywatność poprosił ją o opóźnienie szkolenia swoich dużych modeli językowych (LLM) przy użyciu publicznych treści udostępnianych przez dorosłych użytkowników Facebooka i Instagrama.
“Jesteśmy rozczarowani prośbą irlandzkiej Komisji Ochrony Danych (DPC), naszego głównego organu regulacyjnego, w imieniu europejskich organów ochrony danych […] zwłaszcza, iż uwzględniliśmy informacje zwrotne od organów regulacyjnych, a europejskie organy ochrony danych były informowane od marca” – powiedziała firma w zaktualizowanym poście na blogu.
Stwierdzono, iż irlandzki wniosek jest krokiem wstecz w kierunku europejskich innowacji i konkurencji w rozwoju sztucznej inteligencji.
„Mówiąc prościej, bez uwzględnienia informacji lokalnych bylibyśmy w stanie zaoferować ludziom jedynie doświadczenia drugorzędne. Oznacza to, iż w tej chwili nie jesteśmy w stanie uruchomić Meta AI w Europie” – stwierdziła Meta.
DPC z zadowoleniem przyjął pauzę firmy, twierdząc, iż decyzja zapadła po intensywnych kontaktach z organem regulacyjnym. Meta stwierdziła, iż opóźnione uruchomienie modeli sztucznej inteligencji umożliwi jej również uwzględnienie wniosków brytyjskiego Biura Komisarza ds. Informacji (ICO).
ICO z zadowoleniem przyjęło decyzję Mety, mówiąc, iż będzie przez cały czas monitorować głównych twórców generatywnej sztucznej inteligencji, w tym Metę, w celu przeglądu wprowadzonych przez nich zabezpieczeń i zapewnienia ochrony praw do informacji użytkowników z Wielkiej Brytanii.