Razem z 73 organizacjami wysłaliśmy dziś apel do Komisji Europejskiej w sprawie projektu przepisów dotyczących „zwalczania niegodziwego traktowania dzieci w celach seksualnych”. Projekt ma pozwolić na sprawniejsze wykrywanie wykorzystywania seksualnego dzieci w Internecie. Brzmiałoby to jak regulacja na tyle potrzebna, iż już dawno powinna być wdrożona, gdyby nie jeden szczegół: przepisy mają umożliwiać skanowanie prywatnej komunikacji.
W praktyce może to oznaczać koniec poufnej korespondencji: szyfrowania end-to-end i działania takich komunikatorów jak Signal. telefony będą naszymi osobistymi szpiegami w jeszcze większym wymiarze niż teraz.
Obowiązek skanowania komunikacji
Projekt Komisji nakłada na usługodawców (np. dostawców poczty elektronicznej czy czatów) obowiązek minimalizowania ryzyka, iż ich infrastruktura posłuży do seksualnego wykorzystania dzieci. jeżeli organy państwa członkowskiego uznają, iż firmy nie wyeliminowały ryzyka, mogą nakazać im podjęcie stosownych kroków, w tym np. skanowanie całej komunikacji.
Dziś łapanie pedofila, jutro polowanie na sygnalistę
Nieprawidłowości dostrzega 73 podmiotów z całej Europy, które wspólnie zwróciły się dziś do Komisji o zaprzestanie prac nad projektem. We wspólnym wystąpieniu przywołujemy głos brytyjskiego Royal College of Psychiatrists, zgodnie z którym ukryte przeglądanie korespondencji jest szkodliwe dla dzieci; znacznie skuteczniejsze są edukacja i ich upodmiotowienie.
Wdrożenie przepisów w projektowanym kształcie sprawi, iż furtka do nakładania obowiązku filtrowania treści zostanie uchylona. Podobnie było ze ściganiem terroryzmu, kiedy słuszny cel – podobny do ochrony dzieci – uświęcił środki. Mało kto protestował wtedy przeciwko kolejnym zmianom. Dziś metody służące walce z terroryzmem wykorzystywane są w normalnych śledztwach, a niekiedy choćby w sprawach o wykroczenia.
Kto będzie skanował wiadomości?
Oprócz możliwości zmiany celu skanowania oraz realnego zagrożenia dla poufności szyfrowanej komunikacji widzimy szereg dodatkowych problemów. Do rozpoznawania niegodziwych treści będzie wykorzystywana sztuczna inteligencja. Dlaczego nas to niepokoi?
- Jeśli AI fałszywie rozpozna treść obrazu, a będzie to zdjęcie dorosłego – trafi ono do organów ścigania. Oczywiście, wbrew intencji nadawcy i odbiorcy wiadomości.
- Realizacja nowych obowiązków i wdrożenie algorytmów będzie względnie proste dla cybergigantów. Inaczej będzie z lokalnymi dostawcami usług, co osłabi ich pozycję względem wielkich korporacji.
- Algorytm jest tak dobry, jak dobre są wprowadzone do niego dane. Kto nakarmi algorytmy do przeszukiwania treści danymi o molestowaniu seksualnym dzieci? Projekt zupełnie ten problem pomija.
Dziś firmy będą skanować treści w poszukiwaniu obrazów wykorzystywania dzieci. Kiedy te metody będą już rozpowszechnione, co powstrzyma rządy i firmy przed skanowaniem wiadomości w poszukiwaniu politycznej opozycji lub sygnalistów, którzy chcą powiedzieć prawdę? Apelujemy do Komisji Europejskiej o wysłuchanie głosów obywateli: oddawanie wolności i prywatności dorosłych Europejczyków i Europejek pod pretekstem ochrony praw dzieci, uderza zarówno w dorosłych, jak i w same dzieci.
Dominika Chachuła
Współpraca: Wojciech Klicki