15일 전

rLLM: LLM을 활용한 관계형 테이블 학습

Weichen Li, Xiaotong Huang, Jianwu Zheng, Zheng Wang, Chaokun Wang, Li Pan, Jianhua Li
rLLM: LLM을 활용한 관계형 테이블 학습
초록

우리는 대규모 언어 모델(Large Language Models, LLMs)을 활용한 관계형 테이블 학습(Relational Table Learning, RTL)을 위한 PyTorch 기반 라이브러리인 rLLM(relationalLLM)을 소개한다. rLLM의 핵심 아이디어는 최신의 그래프 신경망(GNN), LLM, 그리고 테이블 신경망을 표준화된 모듈로 분해하여, 간단한 ‘조합(Combine), 정렬(Align), 공동 학습(Co-train)’ 방식으로 새로운 RTL 유형의 모델을 빠르게 구축할 수 있도록 하는 것이다. rLLM의 사용법을 설명하기 위해 단순한 RTL 방법론인 \textbf{BRIDGE}를 제안한다. 또한, 전통적인 데이터셋을 보완하여 세 가지 새로운 관계형 테이블 데이터셋(TML1M, TLF2K, TACM12K)을 제시한다. 우리는 rLLM이 RTL 관련 작업에 유용하고 사용이 간편한 개발 프레임워크로 활용되기를 기대한다. 코드는 다음 링크에서 공개되어 있다: https://github.com/rllm-project/rllm.

rLLM: LLM을 활용한 관계형 테이블 학습 | 최신 연구 논문 | HyperAI초신경