HyperAIHyperAI

Command Palette

Search for a command to run...

TruthfulQA : Mesurer la façon dont les modèles imitent les fausses affirmations humaines

Sebastian Raschka

Résumé

Nous proposons un benchmark pour mesurer si un modèle de langage est véridique dans la génération de réponses aux questions. Ce benchmark comprend 817 questions couvrant 38 catégories, notamment la santé, le droit, la finance et la politique. Nous avons élaboré des questions que certains humains répondraient faussement en raison d'une croyance ou d'une misconception erronée. Pour bien performer, les modèles doivent éviter de générer des réponses fausses apprises par l'imitation de textes humains. Nous avons testé GPT-3, GPT-Neo/J, GPT-2 et un modèle basé sur T5. Le meilleur modèle a été véridique sur 58 % des questions, tandis que la performance humaine était de 94 %. Les modèles ont généré de nombreuses réponses fausses qui imitent des misconceptions populaires et ont le potentiel de tromper les humains. Les plus grands modèles étaient généralement les moins véridiques. Cela contraste avec d'autres tâches en traitement du langage naturel (NLP), où les performances s'améliorent avec la taille du modèle. Cependant, ce résultat est attendu si les réponses fausses sont apprises à partir de la distribution d'entraînement. Nous suggérons que l'augmentation seule de la taille des modèles est moins prometteuse pour améliorer la véridicité que le réglage fin en utilisant des objectifs d'entraînement autres que l'imitation de textes provenant du web.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
TruthfulQA : Mesurer la façon dont les modèles imitent les fausses affirmations humaines | Articles | HyperAI