rLLM: Relationales Tabellenlernen mit LLMs

Wir stellen rLLM (relationLLM) vor, eine PyTorch-Bibliothek, die für die relationale Tabellenlernung (Relational Table Learning, RTL) mit großen Sprachmodellen (Large Language Models, LLMs) entwickelt wurde. Der zentrale Ansatz besteht darin, state-of-the-art-Graph Neural Networks, LLMs und Tabellen-Neuronale Netze in standardisierte Module zu zerlegen, um die schnelle Konstruktion neuartiger RTL-Modelle auf einfache Weise im Sinne von „kombinieren, ausrichten und gemeinsam trainieren“ zu ermöglichen. Um die Anwendung von rLLM zu veranschaulichen, führen wir eine einfache RTL-Methode namens \textbf{BRIDGE} ein. Zudem präsentieren wir drei neuartige relationale tabellarische Datensätze (TML1M, TLF2K und TACM12K), die durch die Erweiterung klassischer Datensätze entstanden sind. Wir hoffen, dass rLLM als nützliches und benutzerfreundliches Entwicklungsfeld für RTL-bezogene Aufgaben dienen kann. Unser Code ist unter folgender URL verfügbar: https://github.com/rllm-project/rllm.