Zuverlässige Long-Tailed-Klassifikation

Die Klassifikation auf langschwänzigen, verteilten Datensätzen stellt eine herausfordernde Aufgabe dar, die unter einer starken Klassenungleichgewicht leidet und daher insbesondere für die sogenannten „Tail-Klassen“ eine unbefriedigende Leistung zeigt. In jüngster Zeit erreichen ensemblesbasierte Methoden den Stand der Technik und zeichnen sich durch großes Potenzial aus. Allerdings weisen derzeitige Ansätze zwei wesentliche Einschränkungen auf. Erstens sind ihre Vorhersagen für anfälligkeitskritische Anwendungen nicht vertrauenswürdig. Dies ist besonders problematisch für die Tail-Klassen, bei denen falsche Vorhersagen grundsätzlich häufig auftreten. Zweitens weisen sie allen Beispielen eine einheitliche Anzahl an Experten zu, was für einfache Beispiele redundant ist und zu übermäßigen Rechenkosten führt. Um diese Probleme anzugehen, schlagen wir eine vertrauenswürdige Klassifikation für langschwänzige Daten (Trustworthy Long-tailed Classification, TLC) vor, die in einem mehrexpertenbasierten Rahmen gleichzeitig Klassifikation und Unsicherheitsschätzung durchführt, um schwierige Beispiele zu identifizieren. Unser TLC ermittelt für jeden Experten eine evidenzbasierte Unsicherheit (Evidence-based Uncertainty, EvU) sowie eine Evidenz und kombiniert diese Unsicherheiten und Evidenzen unter Anwendung der Dempster-Shafer-Evidenztheorie (DST). Darüber hinaus führen wir eine dynamische Expertenbeteiligung ein, um die Anzahl der eingesetzten Experten für einfache Beispiele zu reduzieren und gleichzeitig Effizienz zu erreichen, ohne die Leistung zu beeinträchtigen. Schließlich führen wir umfassende Experimente zu den Aufgaben Klassifikation, Tail-Detektion, OOD-Detektion und Fehlerprognose durch. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene TLC die bestehenden Methoden übertrifft und gleichzeitig vertrauenswürdig ist, da es zuverlässige Unsicherheitsschätzungen liefert.