Übertragung von reichen tiefen Merkmalen für die Schönheitsvorhersage im Gesicht

Die Merkmalsextraktion spielt eine bedeutende Rolle bei Aufgaben der Computer Vision. In dieser Arbeit schlagen wir eine Methode vor, die reichhaltige tiefgreifende Merkmale von einem vortrainierten Modell für die Gesichtserkennung überträgt und diese Merkmale in einen Bayesschen Ridge-Regression-Algorithmus einfügt, um die Gesichtsschönheit zu prognostizieren. Wir nutzen tiefgreifende neuronale Netze, die abstraktere Merkmale aus mehreren Schichten extrahieren. Durch eine einfache, aber effektive Merkmalsfusion-Strategie erreicht unsere Methode verbesserte oder vergleichbare Leistungen auf dem SCUT-FBP-Datensatz und dem ECCV HotOrNot-Datensatz. Unsere Experimente belegen die Effektivität der vorgeschlagenen Methode und klären die interne Interpretierbarkeit der Wahrnehmung von Gesichtsschönheit.