HyperAIHyperAI

Command Palette

Search for a command to run...

Un modèle basé sur BERT à récurrence pour la génération de questions

Yao-Chung Fan Ying-Hong Chan

Résumé

Dans cette étude, nous explorons l’utilisation du modèle linguistique pré-entraîné BERT pour résoudre des tâches de génération de questions. Nous proposons trois architectures neurales basées sur BERT pour ces tâches. La première consiste en une utilisation directe de BERT, qui met en évidence les limites liées à l’application directe de BERT à la génération de texte. À la suite de cette observation, nous introduisons deux autres modèles en réorganisant l’utilisation de BERT selon une approche séquentielle, permettant ainsi d’intégrer les résultats décodés précédents. Nos modèles sont entraînés et évalués sur le jeu de données récent de question-réponse SQuAD. Les résultats expérimentaux montrent que notre meilleur modèle atteint des performances de pointe, faisant passer le score BLEU-4 des modèles existants les plus performants de 16,85 à 22,17.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Un modèle basé sur BERT à récurrence pour la génération de questions | Articles | HyperAI