Raisonnement logique piloté par les faits pour la compréhension automatique de texte par machine

Les dernières années ont vu une croissance croissante de l'intérêt porté à l'entraînement des machines dotées de capacités de raisonnement, lesquelles reposent fortement sur des formes d'indices présentées avec précision et clarté. Dans les études existantes, ces indices sont généralement modélisés sous forme de connaissances conscientes des entités. Toutefois, ces indices centrés sur les entités se concentrent principalement sur le bon sens (commonsense), ce qui les rend insuffisants pour des tâches exigeant des connaissances sur des faits ou événements temporaires, notamment dans le raisonnement logique appliqué à la compréhension de texte. Pour relever ce défi, nous nous sommes inspirés de la nécessité de couvrir de manière hiérarchique à la fois les connaissances de bon sens et les connaissances temporaires. Plus précisément, nous proposons une formalisation générale des unités de connaissance en extrayant les constituants fondamentaux des phrases, tels que les « faits » structurés selon le schéma sujet-verbe-objet. Nous construisons ensuite un supergraphe au-dessus de ces unités de faits, permettant ainsi de tirer parti des interactions au niveau de la phrase (relations entre groupes de faits) et au niveau de l'entité (concepts ou actions à l'intérieur d'un fait). Les résultats expérimentaux sur des benchmarks de raisonnement logique et des jeux de données pour la modélisation de dialogues montrent que notre approche améliore de manière significative les modèles de référence, tout en restant généralisable à divers modèles fondamentaux. Le code est disponible à l'adresse suivante : \url{https://github.com/ozyyshr/FocalReasoner}.