HyperAIHyperAI

Command Palette

Search for a command to run...

Sur la difficulté d’évaluer les baselines : une étude sur les systèmes de recommandation

Steffen Rendle* Li Zhang* Yehuda Koren†

Résumé

Les évaluations numériques avec des comparaisons aux méthodes de référence jouent un rôle central dans l'appréciation des recherches en systèmes de recommandation. Dans cet article, nous montrons que l'exécution correcte des méthodes de référence est difficile. Nous illustrons ce problème sur deux jeux de données largement étudiés. Premièrement, nous démontrons que les résultats obtenus pour les méthodes de référence utilisées dans de nombreuses publications au cours des cinq dernières années pour le benchmark Movielens 10M sont sous-optimaux. Grâce à une configuration minutieuse d'une factorisation matricielle simple (vanilla matrix factorization), nous sommes non seulement capables d'améliorer les résultats rapportés pour cette méthode de référence, mais même de surpasser les résultats rapportés de toute méthode récemment proposée. Deuxièmement, nous rappelons l'effort considérable requis par la communauté pour obtenir des résultats de haute qualité avec des méthodes simples lors du concours Netflix Prize. Nos résultats suggèrent que les constatations empiriques présentées dans les articles de recherche sont remises en question sauf si elles ont été obtenues sur des benchmarks standardisés où les méthodes de référence ont été largement ajustées par la communauté scientifique.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp