
초록
본 논문에서는 기존의 튜플 기반 엔드투엔드(Tuple-based End-to-End, TE2E) 손실 함수보다 화자 인증 모델의 학습을 더욱 효율적으로 만드는 새로운 손실 함수인 일반화된 엔드투엔드(Generalized End-to-End, GE2E) 손실 함수를 제안합니다. GE2E 손실 함수는 TE2E와 달리 각 학습 단계에서 검증이 어려운 예제들을 강조하여 네트워크를 업데이트합니다. 또한, GE2E 손실은 예제 선택의 초기 단계가 필요하지 않습니다. 이러한 특성으로 인해 새로운 손실 함수를 사용한 우리의 모델은 화자 인증의 등록 오류 비율(Equal Error Rate, EER)을 10% 이상 감소시키면서 동시에 학습 시간을 60% 줄일 수 있습니다. 또한 MultiReader 기술을 소개하는데, 이 기술은 도메인 적응을 가능하게 하여 여러 키워드("OK Google" 및 "Hey Google")와 여러 방언을 지원하는 보다 정확한 모델을 학습할 수 있게 합니다.