Command Palette
Search for a command to run...
Complémentarité homme-IA : une cible pour un contrôle renforcé
Complémentarité homme-IA : une cible pour un contrôle renforcé
Rishub Jain Sophie Bridgers Lili Janzer Rory Greig Tian Huey Teh Vladimir Mikulik
Résumé
Les retours humains sont essentiels pour aligner les systèmes d’intelligence artificielle sur les valeurs humaines. Alors que les capacités des systèmes d’IA s’améliorent et qu’ils sont employés pour relever des tâches de plus en plus complexes, la vérification de la qualité et de la sécurité devient de plus en plus difficile. Ce papier explore la manière dont nous pouvons exploiter l’intelligence artificielle pour améliorer la qualité de la surveillance humaine. Nous nous concentrons sur un problème de sécurité important, déjà difficile à gérer pour les humains : la vérification des faits des sorties générées par l’IA. Nous constatons qu’une combinaison des évaluations effectuées par l’IA et par les humains, fondée sur le degré de confiance de l’évaluateur IA, est supérieure à l’utilisation de l’un ou l’autre type d’évaluation seul. Fournir aux humains un assistant d’aide à la vérification des faits par IA améliore davantage leur précision, mais le type d’assistance fourni est déterminant. Afficher les explications, la confiance et les étiquettes produites par l’IA conduit à une sur-reliance, tandis que la simple présentation des résultats de recherche et des preuves favorise une confiance plus appropriée. Ces résultats ont des implications importantes pour la « surveillance amplifiée » (Amplified Oversight) — le défi de combiner humains et IA pour superviser les systèmes d’IA, même lorsque ceux-ci dépassent les performances des experts humains.