Optimisation multi-objectif des arbres neuronaux à plusieurs sorties

Nous proposons un algorithme et une nouvelle méthode pour aborder les problèmes de classification. Nous introduisons un algorithme d’arbre neuronal à plusieurs sorties (MONT, Multi-output Neural Tree), qui constitue un algorithme d’apprentissage évolutionnaire entraîné par l’algorithme génétique de tri non dominé (NSGA)-III. Étant donné que l’apprentissage évolutionnaire est stochastique, l’hypothèse obtenue sous forme de MONT est unique à chaque exécution de l’apprentissage évolutionnaire : chaque hypothèse (arbre) générée présente des propriétés distinctes par rapport à toute autre, tant dans l’espace topologique que dans l’espace des paramètres. Cela donne lieu à un problème d’optimisation complexe dont l’objectif est de minimiser la taille de l’arbre tout en maximisant la précision de classification. Ainsi, les considérations liées à l’optimalité de Pareto ont été traitées à l’aide de l’analyse basée sur l’indicateur de volume hypervolume. Nous avons évalué la performance du MONT sur neuf problèmes de classification classiques. Les résultats expérimentaux montrent que les modèles MONT obtenus sont capables de traiter efficacement les problèmes de classification avec une grande précision. La performance du MONT s’est avérée supérieure à celle d’un ensemble de classificateurs bien établis — perceptron multicouche, arbre de décision avec élagage par erreur réduite, classificateur bayésien naïf, arbre de décision et machine à vecteurs de support — sur l’ensemble des problèmes étudiés. En outre, les performances de trois versions d’entraînement du MONT utilisant la programmation génétique, NSGA-II et NSGA-III indiquent que NSGA-III fournit la meilleure solution optimale au sens de Pareto.