FinBERT : Analyse de l'opinion financière avec des modèles de langage pré-entraînés

L'analyse de la sentiment financière est une tâche complexe en raison du langage spécialisé et du manque de données étiquetées dans ce domaine. Les modèles à usage général ne sont pas suffisamment efficaces en raison du langage spécifique utilisé dans un contexte financier. Nous formulons l'hypothèse que les modèles de langage pré-entraînés peuvent aider à résoudre ce problème car ils nécessitent moins d'exemples étiquetés et peuvent être davantage entraînés sur des corpus spécifiques au domaine. Nous présentons FinBERT, un modèle de langage basé sur BERT, conçu pour aborder les tâches de traitement du langage naturel (NLP) dans le domaine financier. Nos résultats montrent une amélioration dans chaque métrique mesurée par rapport aux résultats actuels de pointe pour deux jeux de données d'analyse de la sentiment financière. Nous constatons que même avec un ensemble d'apprentissage plus restreint et en n'ajustant qu'une partie du modèle, FinBERT surpasse les méthodes d'apprentissage automatique les plus avancées.Note : - "sentiment" est généralement traduit par "sentiment" en français dans le contexte de l'analyse financière.- "state-of-the-art" est souvent traduit par "de pointe" ou "actuel de pointe" pour maintenir le sens technique.- "fine-tuning" est traduit par "ajustement fin" ou simplement "ajuster" selon le contexte.