AuthNet: Ein Authentifizierungsmechanismus auf Basis von Tiefen Lernen, der zeitliche Gesichtsmerkmalsbewegungen verwendet

Biometrische Systeme, die auf maschinellem Lernen und tiefem Lernen basieren, werden zunehmend als Authentifizierungsmechanismen in ressourcenbeschränkten Umgebungen wie Smartphones und anderen kleinen Rechengeräten eingesetzt. Diese künstlich-intelligenzgestützten Gesichtserkennungssysteme haben in den letzten Jahren aufgrund ihrer Transparenz, Berührungslosigkeit und Nicht-Invasivität enorme Popularität erlangt. Obwohl sie weitgehend effektiv sind, gibt es Möglichkeiten, unbefugten Zugang durch das Verwenden von Fotos, Masken, Brillen usw. zu gewinnen. In dieser Arbeit schlagen wir ein alternatives Authentifizierungsverfahren vor, das sowohl Gesichtserkennung als auch die einzigartigen Bewegungen des jeweiligen Gesichts beim Aussprechen eines Passworts nutzt – also die zeitlichen Gesichtsbewegungsmerkmale (temporal facial feature movements). Das vorgeschlagene Modell ist nicht durch Sprachbarrieren beeinträchtigt, da ein Benutzer das Passwort in jeder Sprache festlegen kann. Bei der Auswertung am Standard-Datensatz MIRACL-VC1 erreichte das vorgeschlagene Modell eine Genauigkeit von 98,1 %, was seine Effektivität als ein leistungsfähiges und robustes System unterstreicht. Die vorgeschlagene Methode ist außerdem daten-effizient, da das Modell gute Ergebnisse lieferte, selbst wenn es nur mit zehn positiven Video-Proben trainiert wurde. Die Leistungsfähigkeit des Netzwerktrainings wird auch dadurch demonstriert, dass das vorgeschlagene System mit verschiedenen kombinierten Gesichtserkennungs- und Lippenlesemodellen verglichen wurde.