Uniwersalny Jailbreak dla Modeli AI
Badacze odkryli technikę jailbreak, która pozwala na manipulowanie modelami AI, generując szkodliwe wyniki i omijając zabezpieczenia. Atak 'Policy Puppetry' wykorzystuje luki w procesie interpretacji zapytań przez AI, powodując naruszenie protokołów bezpieczeństwa.