W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców
Zdjęcie: Foto: Andrzej Solnica / Adobe Stock
Łatwo można ominąć zabezpieczenia w dużych modelach językowych (LLM) - uważają włoscy naukowcy. W efekcie modele mogą generować szkodliwe i niebezpieczne treści, takie jak np. instrukcje dotyczące tworzenia złośliwego systemu lub konstruowania bomby.















