Command Palette
Search for a command to run...
TabTune : Une bibliothèque unifiée pour l'inférence et le fine-tuning des modèles fondamentaux tabulaires
Aditya Tanna Pratinav Seth Mohamed Bouadi Utsav Avaiya Vinay Kumar Sankarapu

Résumé
Les modèles fondamentaux tabulaires représentent une approche en plein essor dans l’apprentissage sur données structurées, en étendant les avantages de l’entraînement préalable à grande échelle aux domaines tabulaires. Toutefois, leur adoption reste limitée en raison de pipelines de prétraitement hétérogènes, d’API fragmentées, de procédures d’ajustage fin (fine-tuning) incohérentes, ainsi que de l’absence de critères d’évaluation standardisés pour des métriques orientées déploiement, telles que la calibration et l’équité. Nous présentons TabTune, une bibliothèque unifiée qui standardise l’ensemble du flux de travail des modèles fondamentaux tabulaires via une interface unique. TabTune offre un accès cohérent à sept modèles d’avant-garde, prenant en charge plusieurs stratégies d’adaptation, notamment l’inférence zéro-shot, l’apprentissage métacognitif, l’ajustage fin supervisé (SFT) et l’ajustage fin efficace en paramètres (PEFT). Le cadre automatisé le prétraitement sensible au modèle, gère de manière interne l’hétérogénéité architecturale, et intègre des modules d’évaluation pour la performance, la calibration et l’équité. Conçu pour être extensible et reproductible, TabTune permet une évaluation cohérente des stratégies d’adaptation des modèles fondamentaux tabulaires. La bibliothèque est open source et disponible à l’adresse suivante : https://github.com/Lexsi-Labs/TabTune.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.