TabTune: Eine einheitliche Bibliothek für die Inferenz und Feinabstimmung tabellenbasierter Grundmodelle
Aditya Tanna Pratinav Seth Mohamed Bouadi Utsav Avaiya Vinay Kumar Sankarapu

Abstract
Tabellarische Grundmodelle stellen einen wachsenden Ansatz im Bereich des Lernens mit strukturierten Daten dar und verleihen den Vorteilen des großskaligen Vortrainings auch dem Bereich tabellarischer Daten. Ihre Einführung bleibt jedoch eingeschränkt, da unterschiedliche Vorverarbeitungspipelines, fragmentierte APIs, inkonsistente Feinabstimmungsverfahren sowie fehlende Standardisierung der Bewertung für anwendungsorientierte Metriken wie Kalibrierung und Fairness bestehen. Wir präsentieren TabTune, eine einheitliche Bibliothek, die den gesamten Workflow für tabellarische Grundmodelle über eine einzige Schnittstelle standardisiert. TabTune bietet konsistenten Zugriff auf sieben state-of-the-art-Modelle, die verschiedene Anpassungsstrategien unterstützen, darunter Null-Schritt-Inferenz, Meta-Learning, überwachtes Feinabstimmungsverfahren (SFT) und parameter-effizientes Feinabstimmungsverfahren (PEFT). Der Framework automatisiert modellbewusste Vorverarbeitung, verarbeitet architektonische Unterschiede intern und integriert Bewertungsmodul für Leistung, Kalibrierung und Fairness. Aufgrund ihrer Erweiterbarkeit und Reproduzierbarkeit ermöglicht TabTune eine konsistente Benchmarking-Analyse verschiedener Anpassungsstrategien tabellarischer Grundmodelle. Die Bibliothek ist Open Source und steht unter https://github.com/Lexsi-Labs/TabTune zur Verfügung.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.