Réinterpréter la compréhension des données tabulaires grâce aux grands modèles linguistiques

Les grands modèles linguistiques (LLM) ont démontré une capacité à accomplir diverses tâches, mais leur efficacité dans l’interprétation et le raisonnement sur des données tabulaires demeure un domaine peu exploré. Dans ce contexte, cette étude examine trois axes fondamentaux : la robustesse des LLM face aux perturbations structurelles des tableaux, une analyse comparative du raisonnement textuel et du raisonnement symbolique sur les tableaux, ainsi que le potentiel d’amélioration des performances grâce à l’agrégation de plusieurs voies de raisonnement. Nous constatons qu’une variation structurelle des tableaux présentant le même contenu entraîne une baisse notable des performances, en particulier dans les tâches de raisonnement symbolique. Cela conduit à la proposition d’une méthode de normalisation de la structure des tableaux. Par ailleurs, le raisonnement textuel s’avère légèrement supérieur au raisonnement symbolique, et une analyse détaillée des erreurs révèle que chacun présente des forces distinctes selon les tâches spécifiques. Notamment, l’agrégation des voies de raisonnement textuel et symbolique, renforcée par un mécanisme de cohérence auto-mélangée, permet d’atteindre des performances SOTA, avec une précision de 73,6 % sur WIKITABLEQUESTIONS, marquant une avancée significative par rapport aux paradigmes antérieurs de traitement des tableaux par les LLM.