HyperAIHyperAI

Command Palette

Search for a command to run...

MoCaE: Mixture of Calibrated Experts verbessert die Objekterkennung signifikant

Kemal Oksuz Selim Kuzucu Tom Joy Puneet K. Dokania

Zusammenfassung

Die Kombination der Stärken vieler bestehender Vorhersager zu einem Mixture of Experts, der seine Einzelkomponenten übertrifft, ist eine effektive Methode zur Leistungssteigerung, ohne neue Architekturen entwickeln oder ein Modell von Grund auf neu trainieren zu müssen. Überraschenderweise stellen wir jedoch fest, dass eine naivere Kombination von Experten-Objektdetektoren in ähnlicher Weise wie bei Deep Ensembles häufig zu einer Verschlechterung der Leistung führt. Wir identifizieren die primäre Ursache hierfür darin, dass die Vorhersagen der Experten nicht mit ihrer tatsächlichen Leistung übereinstimmen – ein Phänomen, das als Miscalibration bezeichnet wird. Folglich dominiert der zuversichtlichste Detektor die endgültigen Vorhersagen, wodurch das Mixture-of-Experts-Modell nicht in der Lage ist, alle Vorhersagen der Experten angemessen zu nutzen. Um dies zu beheben, schlagen wir vor, bei der Konstruktion des Mixture of Experts die Vorhersagen der Experten so zu kombinieren, dass deren individuelle Leistung berücksichtigt wird. Dies erreichen wir, indem wir die Vorhersagen zunächst kalibrieren, bevor wir sie filtern und verfeinern. Wir bezeichnen diesen Ansatz als Mixture of Calibrated Experts und demonstrieren seine Wirksamkeit durch umfangreiche Experimente an fünf unterschiedlichen Detektionsaufgaben mit einer Vielzahl von Detektoren. Unsere Ergebnisse zeigen, dass dieser Ansatz: (i) Objektdetektoren auf COCO und Instanzsegmentierungsverfahren auf LVIS um bis zu ∼2,5 AP verbessert; (ii) state-of-the-art-Leistungen auf COCO test-dev mit 65,1 AP und auf DOTA mit 82,62 AP₅₀ erreicht; (iii) konsistent über einzelne Modelle hinaus auf jüngsten Detektionsaufgaben wie Open Vocabulary Object Detection abschneidet.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
MoCaE: Mixture of Calibrated Experts verbessert die Objekterkennung signifikant | Paper | HyperAI