ChatKBQA : Un Cadre de Génération puis de Récupération pour le Questionnement de Bases de Connaissances avec des Modèles Linguistiques Grands et Affinés

L'interrogation de base de connaissances (KBQA) vise à répondre à des questions formulées en langage naturel sur des bases de connaissances (KB) à grande échelle, ce qui peut être résumé en deux étapes cruciales : la recherche de connaissances et l'analyse sémantique. Cependant, trois défis majeurs subsistent : une recherche de connaissances inefficace, les erreurs de recherche affectant négativement l'analyse sémantique, et la complexité des méthodes KBQA précédentes. Pour relever ces défis, nous présentons ChatKBQA, un nouveau cadre KBQA simple et innovant basé sur la génération puis la recherche. Cette approche propose tout d'abord de générer la forme logique avec des modèles linguistiques grandeur nature (LLMs) finement ajustés, puis de rechercher et remplacer les entités et relations avec une méthode de recherche non supervisée, afin d'améliorer directement à la fois la génération et la recherche. Les résultats expérimentaux montrent que ChatKBQA atteint de nouvelles performances d'état de l'art sur des jeux de données KBQA standards tels que WebQSP et CWQ. Ce travail peut également être considéré comme un nouveau paradigme pour combiner les modèles linguistiques grandeur nature (LLMs) avec les graphes de connaissances (KGs) pour une interrogation nécessitant des connaissances et interprétable. Notre code est librement accessible au public.