Naukowcy z Uniwersytetu Standforda przeprowadzili pierwsze duże badania bezpieczeństwa kodu współtworzonego przez sztuczną inteligencję.
Udział sztucznej inteligencji w procesie produkcji systemu zdominował w mijającym roku dyskusję na temat trendów i kierunków rozwoju programowania. Podejść do tematu jest wiele: od systemów inteligentnych sugestii, przez bazujących na SI asystentów po futurystyczne koncepcje Matta Welcha, według których programowanie to przeżytek, a SI będzie nie tylko za nas programować, ale też projektować rozwiązania problemów w sposób niezrozumiały dla ludzkich inżynierów programowania.Zanim to jednak nadejdzie (choć według wspomnianego Welcha już nadeszło, po prostu tego nie dostrzegamy) warto pochylić się nad badaniami przeprowadzonymi przez naukowców z Uniwersytetu Stanford, według których wykorzystywanie SI jako asysty w procesie produkcji systemu może mieć negatywnie przełożenie na jakość kodu i bezpieczeństwo.