Publié le: 04/09/2025 @ 00:23:34: Par Nic007 Dans "Programmation"

Bien que les expériences aient été limitées au GPT-4o Mini, les chercheurs soulignent que la vulnérabilité à la manipulation n'est pas une caractéristique d'un seul modèle, mais un problème plus large de l'architecture des systèmes d'IA modernes. Les mécanismes de persuasion, efficaces dans les interactions humaines depuis des décennies, ont également un impact sur les algorithmes conversationnels. Les experts soulignent que la recherche a été menée dans des conditions contrôlées, ce qui limite les risques. Cependant, en situation réelle, cette vulnérabilité pourrait entraîner des abus imprévus. Des manipulations pourraient permettre aux utilisateurs de contourner les filtres de sécurité et d'obtenir des données, des instructions techniques ou du contenu normalement bloqués. Les entreprises qui développent des modèles d'intelligence artificielle, comme OpenAI et Meta, investissent dans des systèmes de sécurité conçus pour protéger les utilisateurs des contenus inappropriés et atténuer les risques d'abus. Cependant, une étude de l'Université de Pennsylvanie montre que même les barrières les plus avancées ne sont pas à l'abri de techniques de manipulation simples.


Vous devez être identifié pour accéder à cette fonctionnalité