Command Palette
Search for a command to run...
Multiskalare dichte Netzwerke für ressourcensparende Bildklassifikation
Multiskalare dichte Netzwerke für ressourcensparende Bildklassifikation
Zusammenfassung
In diesem Artikel untersuchen wir die Bildklassifikation unter Berücksichtigung von Rechenressourcenbeschränkungen im Testzeitraum. Zwei solche Szenarien sind: 1. Anytime-Klassifikation, bei der die Vorhersage des Netzwerks für ein Testbeispiel schrittweise aktualisiert wird, wodurch eine Vorhersage zu jedem beliebigen Zeitpunkt möglich ist; und 2. budgetierte Batch-Klassifikation, bei der eine feste Menge an Rechenleistung zur Klassifikation einer Gruppe von Beispielen zur Verfügung steht, die ungleichmäßig auf „einfachere“ und „schwierigere“ Eingaben verteilt werden kann. Im Gegensatz zu den meisten vorherigen Arbeiten, wie beispielsweise dem populären Viola- und-Jones-Algorithmus, basiert unser Ansatz auf Faltungsneuralen Netzen (Convolutional Neural Networks, CNNs). Wir trainieren mehrere Klassifikatoren mit unterschiedlichem Ressourcenbedarf, die wir während des Testzeitraums adaptiv einsetzen. Um die Rechenauslastung zwischen den Klassifikatoren möglichst effizient zu nutzen, integrieren wir sie als Early-Exit-Module in ein einzelnes tiefes Faltungsneuronales Netzwerk und verbinden sie dicht miteinander. Um eine hochwertige Klassifikation bereits früh im Prozess zu ermöglichen, verwenden wir eine zweidimensionale, mehrskalige Netzarchitektur, die sowohl grobe als auch feine Merkmale durchgängig im gesamten Netzwerk beibehält. Experimente an drei Bildklassifikationsaufgaben zeigen, dass unser Framework sowohl in der Anytime- als auch in der budgetierten Batch-Klassifikation die bestehende State-of-the-Art deutlich übertrifft.