HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen von mehreren Experte: Selbstgesteuerte Wissensdistillation für langschwänzige Klassifikation

Liuyu Xiang Guiguang Ding Jungong Han

Zusammenfassung

In real-world-Szenarien neigt Daten dazu, einer langen Schwanzverteilung zu folgen, was die Schwierigkeit des Trainings tiefer Netzwerke erhöht. In diesem Paper stellen wir einen neuartigen selbstgesteuerten Wissensdistillation-Frame­work vor, der als „Learning From Multiple Experts“ (LFME) bezeichnet wird. Unsere Methode wird inspiriert durch die Beobachtung, dass Netzwerke, die auf weniger ausgewogenen Teilmengen der Verteilung trainiert werden, oft bessere Leistungen erzielen als ihre gemeinsam trainierten Gegenstücke. Wir bezeichnen diese Modelle als „Experten“, und der vorgeschlagene LFME-Frame­work aggregiert das Wissen aus mehreren solchen „Experten“, um ein einheitliches Student-Modell zu lernen. Konkret umfasst der vorgeschlagene Framework zwei Ebenen adaptiver Lernpläne: die selbstgesteuerte Expertenauswahl (Self-paced Expert Selection) und die Lehrplan-basierte Instanzenauswahl (Curriculum Instance Selection), sodass das Wissen adaptiv an den „Student“ übertragen wird. Wir führen umfangreiche Experimente durch und zeigen, dass unsere Methode im Vergleich zu aktuellen State-of-the-Art-Methoden überlegene Leistungen erzielt. Zudem zeigen wir, dass unsere Methode problemlos in bestehende State-of-the-Art-Algorithmen für die Klassifikation unter langen Schwanzverteilungen integriert werden kann, um deren Leistung weiter zu verbessern.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Lernen von mehreren Experte: Selbstgesteuerte Wissensdistillation für langschwänzige Klassifikation | Paper | HyperAI