HyperAIHyperAI
vor 7 Tagen

Mehrzielige Optimierung von mehrfachausgebenden neuronalen Bäumen

Varun Ojha, Giuseppe Nicosia
Mehrzielige Optimierung von mehrfachausgebenden neuronalen Bäumen
Abstract

Wir schlagen einen Algorithmus und eine neue Methode zur Lösung von Klassifikationsproblemen vor. Hierbei stellen wir einen mehrausgangsorientierten neuronalen Baum (Multi-Output Neural Tree, MONT) vor, einen evolutionären Lernalgorithmus, der mittels des nicht-dominierten Sortierungs-Genetischen Algorithmus (NSGA)-III trainiert wird. Da evolutionäres Lernen stochastisch ist, ist die jeweils gefundene Hypothese in Form eines MONT bei jeder Durchführung des evolutionären Lernprozesses einzigartig, d. h., jeder generierte Hypothese (Baum) weist im topologischen Raum sowie im Parameterraum einzigartige Eigenschaften auf, die sich von allen anderen Hypothesen unterscheiden. Dies führt zu einem anspruchsvollen Optimierungsproblem, bei dem das Ziel darin besteht, die Baumgröße zu minimieren und die Klassifikationsgenauigkeit zu maximieren. Daher wurden die Anforderungen an die Pareto-Optimalität mittels Analyse des Hypervolumenindikators erfüllt. Zur Bewertung der Leistungsfähigkeit des MONT wurden neun Benchmark-Klassifikationslernprobleme verwendet. In den Experimenten konnten MONT-Modelle erzielt werden, die Klassifikationsprobleme mit hoher Genauigkeit lösen. Die Leistung des MONT erwies sich gegenüber einer Reihe bekannter Klassifikatoren – Multilayer Perceptron, Reduced-Error Pruning Tree, Naive Bayes-Klassifikator, Entscheidungsbaum und Support Vector Machine – auf der Reihe der untersuchten Probleme insgesamt überlegen. Zudem zeigten die Ergebnisse der drei MONT-Trainingsvarianten mittels genetischer Programmierung, NSGA-II und NSGA-III, dass NSGA-III die besten Pareto-optimalen Lösungen liefert.

Mehrzielige Optimierung von mehrfachausgebenden neuronalen Bäumen | Neueste Forschungsarbeiten | HyperAI