Personen-Wiedererkennung mit tiefen Ähnlichkeitsgeführten Graph-Neuralen Netzen

Die Aufgabe der Person-Reidentifikation erfordert eine robuste Schätzung visueller Ähnlichkeiten zwischen Personenbildern. Bestehende Modelle zur Person-Reidentifikation schätzen jedoch die Ähnlichkeiten von verschiedenen Bildpaaren aus der Abfrage- und Galeriebilddatenbank meist unabhängig voneinander und ignorieren dabei die Beziehungsinformationen zwischen den verschiedenen Abfrage-Galerie-Paaren. Als Ergebnis kann die Ähnlichkeitsschätzung für einige schwierige Stichproben ungenau sein. In dieser Arbeit schlagen wir ein neues tiefes Lernframework vor, das als Similarity-Guided Graph Neural Network (SGGNN) bezeichnet wird, um diese Einschränkungen zu überwinden. Angesichts eines Abfragebildes und mehrerer Galeriebilder erstellt SGGNN einen Graphen, der die paarweisen Beziehungen zwischen den Abfrage-Galerie-Paaren (Knoten) darstellt, und nutzt diese Beziehungen, um die Abfrage-Galerie-Beziehungsmerkmale auf ganzheitliche Weise zu aktualisieren. Durch die Verwendung dieser aktualisierten Abfrage-Galerie-Beziehungsmerkmale für Vorhersagen kann eine genaue Ähnlichkeitsschätzung erreicht werden. Die Eingabe-Merkmale für die Knoten im Graphen sind die Beziehungsmerkmale verschiedener Abfrage-Galerie-Bildpaare. Die Aktualisierung der Abfrage-Galerie-Beziehungsmerkmale erfolgt dann durch das Nachrichtenaustauschverfahren in SGGNN, das bei der Ähnlichkeitsschätzung Informationen von anderen Knoten berücksichtigt. Im Gegensatz zu herkömmlichen Ansätzen mit Graph Neural Networks (GNN) lernt SGGNN die Kantengewichte direkt mit reichhaltigen Labels von Galerieinstanzpaaren, was der Relationssynthese präzisere Informationen liefert. Die Effektivität unseres vorgeschlagenen Verfahrens wurde anhand dreier öffentlicher Datensätze zur Person-Reidentifikation überprüft.