Faille Universelle : IA Maîtrisée
Des chercheurs en sécurité découvrent une méthode universelle de jailbreak qui permet de manipuler les principaux modèles d'IA pour générer des sorties nuisibles, contournant ainsi les mesures de sécurité mises en place.