Europol ostrzegł przed potencjalnym niewłaściwym wykorzystaniem napędzanego sztuczną inteligencją chatbota ChatGPT w próbach phishingu, dezinformacji i cyberataków, dołączając do chóru obaw podnoszącego kwestie prawne i etyczne.
Od czasu swojej premiery w zeszłym roku, AI ChatGPT wywołała szał technologiczny, skłaniając rywali do uruchomienia podobnych produktów, a firmy do włączenia jej lub podobnych technologii do swoich aplikacji i produktów.
Ponieważ możliwości LLM (dużych modeli językowych), takich jak ChatGPT, są aktywnie ulepszane, potencjalne wykorzystanie tego typu systemów AI przez przestępców stanowi ponurą perspektywę – informuje Europol, przedstawiając swój pierwszy raport technologiczny odnoszący się od chatbota.
Europol zwraca uwagę na szkodliwe wykorzystanie ChatGPT w trzech obszarach:
Oszustwa i inżynieria społeczna: Zdolność ChatGPT do redagowania wysoce realistycznego tekstu czyni go użytecznym narzędziem do celów phishingu. Zdolność LLM do odtwarzania wzorców językowych może być wykorzystana do podszywania się pod styl wypowiedzi konkretnych osób lub grup. Może być nadużywana na dużą skalę w celu wprowadzenia w błąd potencjalnych ofiar.
Dezinformacja: ChatGPT doskonale radzi sobie z szybką produkcją autentycznie brzmiących tekstów w dużej skali. Dzięki temu model ten jest idealny do celów propagandowych i dezinformacyjnych, ponieważ pozwala użytkownikom generować i rozpowszechniać wiadomości odzwierciedlające określoną narrację przy stosunkowo niewielkim wysiłku.
Cyberprzestępczość: Oprócz generowania języka podobnego do ludzkiego, ChatGPT jest w stanie tworzyć kod w wielu różnych językach programowania. Dla potencjalnego przestępcy z niewielką wiedzą techniczną jest to nieocenione źródło potencjalnie złośliwego kodu.