Solveur Numérique Précis et Conscient du Regret pour les Réponses aux Questions sur des Tableaux

L'interrogation de tables à structure libre (également connue sous le nom de TableQA) est une tâche complexe en raison de la flexibilité de la structure et de la complexité du schéma des tables. Les études récentes utilisent des grands modèles linguistiques (LLMs) pour cette tâche, exploitant leur capacité à comprendre les questions et les données tabulaires, qui sont généralement formulées en langage naturel et contiennent de nombreux champs textuels, respectivement. Bien que cette approche ait montré des résultats prometteurs, elle néglige les défis posés par les valeurs numériques, qui sont courantes dans les données tabulaires, et il est bien connu que les LLMs ont des difficultés avec ces valeurs. Nous visons à résoudre ce problème et proposons un modèle nommé TabLaP qui utilise les LLMs comme planificateur plutôt que comme générateur de réponses. Cette approche exploite la capacité des LLMs à effectuer des raisonnements en plusieurs étapes tout en confiant les calculs numériques réels à un interpréteur Python pour une précision optimale. Reconnaissant l'imprécision inhérente aux LLMs, nous faisons une première tentative pour quantifier la fiabilité des réponses produites par TabLaP, afin que les utilisateurs puissent utiliser TabLaP d'une manière consciente des regrets. Les résultats expérimentaux sur deux jeux de données de référence montrent que TabLaP est substantiellement plus précis que les modèles d'état de l'art, améliorant la précision des réponses de 5,7 % et 5,8 % sur les deux jeux de données respectivement.