Kwestia umieszczania zabezpieczeń przed generowaniem niebezpiecznych treści w modelach sztucznej inteligencji istnieje praktycznie od pierwszych publicznych wersji. Ekspertom niejednokrotnie **udawało się jednak namawiać AI do tworzenia rzeczy, które nie są akceptowane przez społeczeństwo**, a według ekspertów, potrzebne są takie zabezpieczenia, aby generowane treści nie szkodziły społeczeństwu.