HyperAIHyperAI
il y a 15 jours

rLLM : Apprentissage de table relationnelle avec des LLM

Weichen Li, Xiaotong Huang, Jianwu Zheng, Zheng Wang, Chaokun Wang, Li Pan, Jianhua Li
rLLM : Apprentissage de table relationnelle avec des LLM
Résumé

Nous introduisons rLLM (relationLLM), une bibliothèque PyTorch conçue pour l’apprentissage relationnel de tableaux (Relational Table Learning, RTL) basé sur des grands modèles linguistiques (Large Language Models, LLM). L'idée centrale consiste à décomposer les réseaux de neurones graphiques d'avant-garde, les LLM et les réseaux de neurones pour tableaux en modules standardisés, afin de permettre la construction rapide de nouveaux modèles de type RTL selon une approche simple et efficace : « combiner, aligner et co-entraîner ». Pour illustrer l'utilisation de rLLM, nous présentons une méthode RTL élémentaire nommée \textbf{BRIDGE}. En outre, nous introduisons trois nouveaux jeux de données relationnelles tabulaires (TML1M, TLF2K et TACM12K), construits à partir de jeux de données classiques améliorés. Nous espérons que rLLM pourra servir de cadre de développement utile et facile à utiliser pour les tâches liées au RTL. Notre code est disponible à l’adresse suivante : https://github.com/rllm-project/rllm.

rLLM : Apprentissage de table relationnelle avec des LLM | Articles de recherche récents | HyperAI