ChatGPT to narzędzie, o którym usłyszał cały świat. Liczba tutoriali opisujących jego zastosowanie w różnych aspektach tworzenia systemu rośnie w lawinowym tempie. To pokazuje jak bardzo cenimy sobie wygodę i prostotę tego typu rozwiązań. Czy jednak takie rozleniwienie i brak skupienia nie spowoduje przeoczenia zagrożeń, jakie użycie tego typu narzędzi za sobą niesie? Czy uda nam się wychwycić złośliwy kod zaszyty w wygenerowanej przez algorytm odpowiedzi na zadany problem? Czy podczas poprawiania rozwiązania, zgodnie ze wskazówkami pomocnika, zauważymy, iż jego intencją jest nie tylko rzetelna pomoc, ale także ułatwienie złamania naszych zabezpieczeń? To tylko kilka przykładów, nowych zagrożeń, które pojawią się wraz z masowym wykorzystaniem narzędzi podobnych do ChatGPT. Myślę, iż wpływ programowania wspomaganego poprzez AI na jakże istotny aspekt, jakim jest bezpieczeństwo oprogramowania, jest przez cały czas pomijany i dlatego celem tej dyskusji jest rozpoczęcie debaty na temat bezpieczeństwa w nowej rzeczywistoci, w którą wkraczamy.
https://confidence-conference.org/