HyperAIHyperAI
il y a 11 jours

TabSQLify : Renforcer les Capacités de Raisonnement des LLMs par Décomposition de Tableaux

Md Mahadi Hasan Nahid, Davood Rafiei
TabSQLify : Renforcer les Capacités de Raisonnement des LLMs par Décomposition de Tableaux
Résumé

Le raisonnement sur les tableaux constitue une tâche complexe exigeant une compréhension à la fois des questions formulées en langage naturel et des données structurées présentes dans les tableaux. Les grands modèles linguistiques (LLM) ont démontré des capacités impressionnantes en compréhension et génération de langage naturel, mais ils peinent souvent à traiter des tableaux volumineux en raison de leur longueur d’entrée limitée. Dans cet article, nous proposons TabSQLify, une méthode novatrice qui exploite la génération texte-à-SQL afin de décomposer les tableaux en sous-tableaux plus petits et pertinents, contenant uniquement les informations essentielles pour répondre aux questions ou vérifier des énoncés, avant d’effectuer le raisonnement. Dans notre évaluation approfondie sur quatre jeux de données exigeants, notre approche obtient des performances comparables ou supérieures à celles des méthodes existantes qui reposent sur l’entrée complète des tableaux. En outre, notre méthode permet une réduction significative de la longueur du contexte d’entrée, ce qui la rend plus scalable et efficace pour les applications de raisonnement à grande échelle sur les tableaux. TabSQLify se distingue particulièrement sur le benchmark WikiTQ, atteignant une précision de 64,7 %. De plus, sur le benchmark TabFact, elle atteint une précision élevée de 79,5 %, surpassant ainsi les modèles de base basés sur LLM comme gpt-3.5-turbo (ChatGPT). TabSQLify permet une réduction notable de la taille des tableaux, atténuant ainsi la charge computationnelle imposée aux LLM lors du traitement de grands tableaux, sans compromettre les performances.

TabSQLify : Renforcer les Capacités de Raisonnement des LLMs par Décomposition de Tableaux | Articles de recherche récents | HyperAI