W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców

rp.pl 2 dni temu
Zdjęcie: Foto: Andrzej Solnica / Adobe Stock


Łatwo można ominąć zabezpieczenia w dużych modelach językowych (LLM) - uważają włoscy naukowcy. W efekcie modele mogą generować szkodliwe i niebezpieczne treści, takie jak np. instrukcje dotyczące tworzenia złośliwego systemu lub konstruowania bomby.
Idź do oryginalnego materiału