Überanpassung
Überanpassung Es ist ein Phänomen des maschinellen Lernens. Es bezieht sich auf die Situation, in der einige Attribute in der Stichprobe gelernt werden, die für die Klassifizierung nicht benötigt werden. Zu diesem Zeitpunkt ist das erlernte Entscheidungsbaummodell nicht das optimale Modell und führt zu einer Verringerung der Generalisierungsleistung.
Die Auswirkungen von Überanpassung
In der Statistik und im maschinellen Lernen wird Overfitting im Allgemeinen verwendet, um zufällige Fehler oder Rauschen in statistischen Modellen zu beschreiben. Dies geschieht normalerweise, wenn das Modell zu komplex ist, beispielsweise wenn es zu viele Parameter enthält. Durch Überanpassung wird die Vorhersageleistung des Modells geschwächt und die Volatilität der Daten erhöht.
Was können Sie tun, um Überanpassung zu vermeiden?
Es gibt viele Faktoren, die zu einer Überanpassung führen können, normalerweise aufgrund übermäßiger Lernfähigkeit. Wenn wir also blindlings danach streben, die Vorhersagefähigkeit der Trainingsdaten zu verbessern, ist die Komplexität des ausgewählten Modells häufig höher als die des tatsächlichen Modells, was zu einer Überanpassung führt.
Um eine Überanpassung zu vermeiden, müssen einige zusätzliche Techniken wie Kreuzvalidierung, Regularisierung, frühzeitiges Stoppen, Bayesianisches Informationskriterium, Akaike-Informationskriterium oder Modellvergleich verwendet werden, um anzuzeigen, wann mehr Training nicht zu einer besseren Generalisierung führt.
So lösen Sie Überanpassung
1) Bereinigen Sie die Daten erneut. Diese Methode eignet sich für Situationen, in denen die Daten unrein sind.
2) Reduzieren Sie die Anzahl der Trainingsbeispiele.
3) Reduzieren Sie die Komplexität des Modells.
4) Erhöhen Sie den Regularisierungstermkoeffizienten.
5) Verwenden Sie die Dropout-Methode;
6) vorzeitiges Absetzen;
7) Reduzieren Sie die Anzahl der Iterationen;
8) Erhöhen Sie die Lernrate;
9) Rauschdaten hinzufügen;
10) Führen Sie einen Beschnitt in der Baumstruktur durch.