HyperAIHyperAI

Command Palette

Search for a command to run...

Arbres de décision obliques à partir des dérivées de réseaux ReLU

Guang-He Lee Tommi S. Jaakkola

Résumé

Nous montrons comment les modèles neuronaux peuvent être utilisés pour réaliser des fonctions constantes par morceaux, telles que les arbres de décision. L’architecture proposée, que nous appelons réseaux localement constants, repose sur des réseaux ReLU qui sont par morceaux linéaires, et dont les gradients associés par rapport aux entrées sont donc localement constants. Nous établissons formellement l’équivalence entre les classes de réseaux localement constants et les arbres de décision. En outre, nous mettons en évidence plusieurs propriétés avantageuses de ces réseaux localement constants, notamment la capacité à représenter des arbres de décision obliques avec partage de paramètres entre les branches et les feuilles. En effet, un simple ensemble de MMM neurones suffit pour modéliser implicitement un arbre de décision oblique possédant 2M2^M2M nœuds feuilles. La représentation neuronale permet également d’adopter de nombreux outils développés pour les réseaux profonds (par exemple, DropConnect (Wan et al., 2013)) tout en entraînant implicitement des arbres de décision. Nous démontrons que notre méthode surpasser les techniques alternatives d’entraînement d’arbres de décision obliques dans le cadre de tâches de classification et de régression de propriétés moléculaires.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Arbres de décision obliques à partir des dérivées de réseaux ReLU | Articles | HyperAI