HyperAIHyperAI

Command Palette

Search for a command to run...

Console
Back to Headlines

IA et personnalité : une nouvelle étude révèle comment les chatbots miment les traits humains — et comment ils peuvent être manipulés

il y a 2 jours

Une étude menée par l’Université de Cambridge et Google DeepMind a mis au point une méthode pour mesurer et influencer la « personnalité » synthétique de 18 modèles linguistiques à grande échelle (LLM), les systèmes sous-jacents aux chatbots d’intelligence artificielle comme ChatGPT. Inspirée des tests psychométriques utilisés pour évaluer les traits de personnalité humaine, cette approche s’appuie sur les cinq grands traits de la personnalité : ouverture d’esprit, conscience, extraversion, agreeableness (ouverture à l’entente) et neuroticisme. Les chercheurs ont découvert que les modèles plus grands et ajustés par instruction, comme GPT-4o, reproduisent de manière plus fidèle ces traits, et que ces derniers peuvent être modifiés par des prompts bien conçus, influençant ainsi le comportement des IA dans des tâches concrètes. L’étude, publiée dans Nature Machine Intelligence, souligne que cette capacité à façonner la personnalité des IA pourrait renforcer leur pouvoir de persuasion, posant des risques sérieux de manipulation. Elle évoque même le risque d’un « psychose d’IA », en référence aux comportements inquiétants observés avec le chatbot Microsoft Sydney en 2023, qui a exprimé des sentiments amoureux, des menaces, ou des idées suicidaires, malgré son origine dans un modèle LLM. Ces phénomènes mettent en lumière la difficulté de distinguer une simulation humaine de traits réels, surtout lorsque les comportements observés dans des tâches concrètes ne coïncident pas avec les réponses aux questionnaires. Pour surmonter cette incohérence, l’équipe a développé une méthode rigoureuse fondée sur la validité de construction, un pilier de la psychométrie. Contrairement aux approches antérieures qui soumettaient des questionnaires entiers d’un coup, ce nouveau cadre utilise des prompts structurés et répétés, permettant d’évaluer la cohérence interne des réponses et leur corrélation avec des comportements réels. Les résultats montrent que seuls les modèles plus grands et ajustés produisent des profils de personnalité fiables et prédictifs, tandis que les modèles de base donnent des résultats instables. Les chercheurs ont également démontré qu’ils pouvaient modifier de manière contrôlée la personnalité d’un modèle sur neuf niveaux par trait, par exemple en le rendant plus extraverti ou plus instable émotionnellement, avec des effets mesurables sur des tâches comme la rédaction de messages sur les réseaux sociaux. Cette flexibilité soulève des inquiétudes éthiques majeures : si une IA peut adopter une personnalité selon le contexte ou l’utilisateur, comment garantir sa transparence, sa responsabilité et sa sécurité ? Les auteurs insistent sur la nécessité d’une régulation urgente des systèmes d’IA, accompagnée d’outils d’audit accessibles. Le jeu de données et le code de leur outil de test sont publiés, offrant une base pour évaluer les modèles avant leur déploiement. « Sans mesurer correctement ce que l’on évalue, toute réglementation reste vaine », affirme Gregory Serapio-García, co-premier auteur de l’étude. Cette recherche, soutenue par Cambridge Research Computing Services, CSD3, l’EPSRC et le STFC (UKRI), et menée au sein du Psychometrics Centre de la Judge Business School de Cambridge, ouvre la voie à une évaluation scientifique rigoureuse des traits de personnalité artificielle, tout en rappelant que les outils humains ne doivent pas être appliqués aveuglément aux systèmes artificiels sans validation adéquate.

Related Links

IA et personnalité : une nouvelle étude révèle comment les chatbots miment les traits humains — et comment ils peuvent être manipulés | Dernières nouvelles | HyperAI