LLMy radzą sobie całkiem nieźle z generowaniem składniowo-poprawnego kodu, mniej więcej na poziomie programisty juniora (tj. popełniają te same błędy, tylko szybciej). Czy można je zatem zaprząc również do testowania bezpieczeństwa systemu i/lub serwerów (choćby na poziomie juniora)? Postanowiłem zagłębić się w ten temat, zarówno od strony teoretycznej, jak i praktycznej (ChatGPT ma bardzo fajne API). Mam trochę wniosków na ten temat i na tej prelekcji chciałbym się z Wami nimi podzielić.
Kolejna edycja OMH: https://omhconf.pl/