HyperAIHyperAI
il y a 2 mois

TruthfulQA : Mesurer la façon dont les modèles imitent les fausses affirmations humaines

Stephanie Lin; Jacob Hilton; Owain Evans
TruthfulQA : Mesurer la façon dont les modèles imitent les fausses affirmations humaines
Résumé

Nous proposons un benchmark pour mesurer si un modèle de langage est véridique dans la génération de réponses aux questions. Ce benchmark comprend 817 questions couvrant 38 catégories, notamment la santé, le droit, la finance et la politique. Nous avons élaboré des questions que certains humains répondraient faussement en raison d'une croyance ou d'une misconception erronée. Pour bien performer, les modèles doivent éviter de générer des réponses fausses apprises par l'imitation de textes humains. Nous avons testé GPT-3, GPT-Neo/J, GPT-2 et un modèle basé sur T5. Le meilleur modèle a été véridique sur 58 % des questions, tandis que la performance humaine était de 94 %. Les modèles ont généré de nombreuses réponses fausses qui imitent des misconceptions populaires et ont le potentiel de tromper les humains. Les plus grands modèles étaient généralement les moins véridiques. Cela contraste avec d'autres tâches en traitement du langage naturel (NLP), où les performances s'améliorent avec la taille du modèle. Cependant, ce résultat est attendu si les réponses fausses sont apprises à partir de la distribution d'entraînement. Nous suggérons que l'augmentation seule de la taille des modèles est moins prometteuse pour améliorer la véridicité que le réglage fin en utilisant des objectifs d'entraînement autres que l'imitation de textes provenant du web.

TruthfulQA : Mesurer la façon dont les modèles imitent les fausses affirmations humaines | Articles de recherche récents | HyperAI