
Dieses Papier stellt eine schnelle regionenbasierte Faltungsnetzwerk-Methode (Fast R-CNN) für die Objekterkennung vor. Fast R-CNN baut auf früheren Arbeiten auf und klassifiziert Objektvorschläge effizient mit tiefen Faltungsnetzwerken. Im Vergleich zu früheren Arbeiten verwendet Fast R-CNN mehrere Innovationen, um die Trainings- und Testgeschwindigkeit zu verbessern, während gleichzeitig die Erkennungsgenauigkeit erhöht wird. Fast R-CNN trainiert das sehr tiefe VGG16-Netz 9-mal schneller als R-CNN, ist bei der Testzeit 213-mal schneller und erreicht einen höheren mAP (mean Average Precision) auf PASCAL VOC 2012. Im Vergleich zu SPPnet trainiert Fast R-CNN VGG16 3-mal schneller, testet 10-mal schneller und ist genauer. Fast R-CNN wurde in Python und C++ (mit Caffe) implementiert und steht unter der Open-Source-Lizenz MIT auf https://github.com/rbgirshick/fast-rcnn zur Verfügung.