OpenAI blokuje konta nadużywające ChatGPT do inwigilacji

sztucznainteligencjablog.pl 1 tydzień temu

W ostatnim czasie OpenAI podjęło zdecydowane działania w związku z nadużyciami ChatuGPT, które angażują chińskie służby bezpieczeństwa. Blokada kont, które wykorzystywały AI do tworzenia narzędzi inwigilacyjnych, stała się kluczowym krokiem w walce z autorytarnymi reżimami. Kontrowersje związane z deepfake’ami i manipulacją wizerunkiem również narastają, co prowadzi do rosnącej presji na wprowadzenie surowszych regulacji.

OpenAI przeciwko cyberinwigilacji

OpenAI zablokowało kilka chińskojęzycznych kont, które wykorzystywały funkcjonalność ChatGPT do prowadzenia masowej inwigilacji w sieci. Narzędzia takie jak „Qianyue Overseas Public Opinion AI Assistant” służyły analizie treści na popularnych platformach społecznościowych, dostarczając w czasie rzeczywistym raporty dla chińskich służb. Zidentyfikowano, iż owe działania podejmowane były głównie podczas godzin pracy w Chinach, co wskazuje na manualną obsługę systemów AI, a nie ich automatyczne wykorzystanie. To jasny znak, iż OpenAI zaciekle walczy ze wszelkimi próbami wykorzystania AI w celach szkodliwych.

Dla ciekawskich, więcej informacji na temat działań OpenAI można znaleźć w naszym artykule.

Problemy z deepfake'ami i potrzeba regulacji

W miarę rozwoju technologii sztucznej inteligencji, nasila się również problem związany z deepfake'ami. Organizacje takie jak Public Citizen nieustannie apelują o wprowadzenie zmian w regulacjach, wskazując na zagrożenia związane z realistycznymi fałszywkami, które mogą być masowo produkowane przez aplikacje takie jak Sora 2. najważniejsze aspekty to:

  • Brak jednolitych regulacji UE na temat deepfake'ów do 2025 roku uznano za dużą porażkę.
  • Wprowadzenie regulacji takich jak AI Act, choć krok w dobrą stronę, jest niewystarczające.
  • Konieczność wymogu ujawniania treści generowanych przez AI dla zwiększenia transparentności.
  • Zaostrzenie zasad bezpieczeństwa w celu ograniczenia nadużyć AI.

Dzięki nowym przepisom ma zwiększyć się odpowiedzialność za generowane treści oraz ochrona przed nadużyciami. Artykuł o prawach autorskich i AI opublikował PrawnikIT.

Zarówno blokowanie nieodpowiednich praktyk, jak i wdrażanie nowych regulacji, są niezbędne, by technologia AI rozwijała się odpowiedzialnie. Walka z nadużyciami ChatuGPT czy manipulacjami wizerunkowymi jest kluczowa w obliczu rosnących możliwości sztucznej inteligencji. Zapraszamy do śledzenia dalszych wydarzeń na naszym portalu o sztucznej inteligencji.

Idź do oryginalnego materiału