HyperAI

Individueller Lerner

Individueller LernenderEs handelt sich um ein relatives Konzept, das den Lernenden vor der Integration in das Ensemble-Lernen darstellt.

Je nach der Art und Weise, wie einzelne Lerner generiert werden, können Ensemble-Lernmethoden in die folgenden zwei Kategorien unterteilt werden:

  • Es bestehen starke Abhängigkeiten und Serialisierungsmethoden müssen seriell generiert werden, wie beispielsweise Boosting.
  • Es besteht keine starke Abhängigkeit zwischen parallelen Methoden, die gleichzeitig generiert werden können, dargestellt durch Bagging und Random Forest.

Boosting ist ein Algorithmus, der schwache Lerner zu starken Lernern machen kann. Zuerst wird ein Basislerner anhand des anfänglichen Trainingssatzes trainiert, dann wird die Verteilung der Trainingsbeispiele auf Grundlage des Basislerners angepasst, sodass den Trainingsbeispielen, die der Basislerner falsch verarbeitet hat, in Zukunft mehr Aufmerksamkeit geschenkt wird, und dann wird der nächste Basislerner auf Grundlage der angepassten Beispielverteilung trainiert. Dieser Vorgang wird wiederholt, bis die Anzahl der Basislerner einen vorgegebenen Wert T erreicht, und schließlich werden diese T Lerner gewichtet kombiniert.

Bagging ist ein Vertreter paralleler Ensemble-Lernmethoden, der auf Bootstrap-Sampling basiert und sich auf die Reduzierung der Varianz konzentriert. Der Random-Forest-Algorithmus ist eine erweiterte Variante des Bagging, der ein Bagging-Ensemble auf der Grundlage von Entscheidungsbäumen erstellt und darüber hinaus eine zufällige Attributauswahl in den Trainingsprozess von Entscheidungsbäumen einführt.

Verweise

【1】Hinweise zum „Maschinellen Lernen“ – Ensemble-Lernen (Zhihu-Artikel)