Ein verbessertes Verfahren zur Reduzierung der Komplexität punktweiser Faltungen in CNNs für die Bildklassifikation basierend auf interleaved gruppierten Filtern ohne Teilbarkeitsbeschränkungen
Bei der Bildklassifikation mit tiefen konvolutionellen neuronalen Netzen (DCNNs) wächst die Anzahl der Parameter in Pointwise-Konvolutionen rasch aufgrund der Multiplikation der Anzahl der Filter mit der Anzahl der Eingangskanäle aus der vorherigen Schicht. Bisherige Studien zeigten, dass ein Subnetzwerk Pointwise-Konvolutionsschichten signifikant mit weniger Parametern und weniger Gleitkommaberechnungen ersetzen kann, ohne die Lernkapazität zu beeinträchtigen. In diesem Artikel stellen wir ein verbessertes Verfahren zur Reduzierung der Komplexität von Pointwise-Konvolutionen in DCNNs für die Bildklassifikation vor, das auf abwechselnd gruppierten Filtern basiert und keine Teilbarkeitsbedingungen erfordert. Das vorgeschlagene Verfahren nutzt gruppierte Pointwise-Konvolutionen, bei denen jede Gruppe einen Teil der Eingangskanäle verarbeitet. Es erfordert die Anzahl der Kanäle pro Gruppe als Hyperparameter Ch. Das Subnetzwerk des vorgeschlagenen Ansatzes besteht aus zwei aufeinanderfolgenden konvolutionellen Schichten K und L, die mittels einer Zwischenschicht mit Abwechselung verbunden sind und am Ende summiert werden. Die Anzahl der Filtergruppen und die Anzahl der Filter pro Gruppe für die Schichten K und L werden durch exakte Division der ursprünglichen Anzahl der Eingangskanäle und Filter durch Ch bestimmt. Falls die Division nicht exakt war, konnte die ursprüngliche Schicht nicht ersetzt werden. In diesem Artikel verfeinern wir den vorherigen Algorithmus dahingehend, dass Eingangskanäle repliziert werden und die Gruppen unterschiedliche Anzahlen von Filtern aufweisen können, um nicht-exakte Teilbarkeitsfälle zu bewältigen. Dadurch wird die Anzahl der Gleitkommaberechnungen (um 11 %) und der trainierbaren Parameter (um 10 %) weiter reduziert im Vergleich zur vorherigen Methode. Wir haben unsere Optimierung an einem EfficientNet-B0 als Baseline-Architektur getestet und Klassifikationsversuche auf den Datensätzen CIFAR-10, Colorectal Cancer Histology und Malaria durchgeführt. Für jeden Datensatz erreicht unsere Optimierung eine Reduktion der trainierbaren Parameter von EfficientNet-B0 um 76 %, 89 % und 91 %, wobei die Test-Klassifikationsgenauigkeit erhalten bleibt.