Brytyjskie Narodowe Centrum Bezpieczeństwa Cybernetycznego (NCSC) wydało raport, w którym ostrzega przed rosnącym zagrożeniem dla cyberbezpieczeństwa związanym z rozwojem sztucznej inteligencji (AI). Według NCSC, AI może być wykorzystywana do przeprowadzania skuteczniejszych i bardziej zaawansowanych ataków na systemy informatyczne.
Jednym z przykładów takiego zagrożenia jest niewłaściwe użycie promptów, czyli zapytań lub poleceń, które wpływają na zachowanie chatbotów opartych na AI. Chatboty to programy komputerowe, które symulują rozmowę z ludźmi dzięki tekstu lub głosu. Jednym z najpopularniejszych chatbotów jest ChatGPT, stworzony przez organizację OpenAI, która zajmuje się badaniem i rozwojem AI.
Na wiosnę tego roku OpenAI udostępniło platformę, która pozwala programistom tworzyć wtyczki, mające na celu rozszerzenie funkcjonalności i ulepszenie chatbota za pośrednictwem użytkowników. Jednak ta platforma ma również swoje wady. Użytkownik o złych zamiarach może zaimplementować złośliwy kod do ChatGPT, co może spowodować niepożądane działania chatbota. Na przykład, chatbot może ujawnić poufne informacje o danym systemie lub wykonać niebezpieczne operacje.
Zdaniem NCSC, łatwość w manipulowaniu promptami może doprowadzić do tworzenia scamu, czyli oszustw internetowych lub do kradzieży danych. Aby zapobiegać tego typu problemom, potrzebne jest lepsze zrozumienie technik ataków, które wykorzystują luki w algorytmach uczenia maszynowego. NCSC rekomenduje również stosowanie dobrych praktyk w zakresie bezpieczeństwa i etyki przy tworzeniu i używaniu chatbotów opartych na AI.
Więcej:
- Temat Zagrożeń AI związanych z cyberbezpieczeństwem poruszamy w naszym webinarze.
- Post NCSC dotyczący zagrożeń wynikających z używania systemów sztucznej inteligencji.