
상호작용 기계의 사용이 증가함에 따라 대화 내 감정 인식(Emotion Recognition in Conversation, ERC)의 중요성이 더욱 부각되고 있다. 기계가 생성하는 문장이 감정을 반영할 경우, 더욱 인간처럼 공감적인 대화가 가능해진다. 대화 내 감정 인식은 이전 대화 문장을 고려하지 않을 경우 정확도가 저하되므로, 많은 연구들이 대화 맥락을 반영하여 성능을 향상시키고자 노력하고 있다. 최근 많은 접근 방식들은 외부 구조화된 데이터로부터 학습된 모듈에 지식을 통합함으로써 성능 향상을 보이고 있다. 그러나 구조화된 데이터는 영어 이외의 언어에서는 접근이 어려우며, 이로 인해 다른 언어로의 확장이 어렵다는 한계가 있다. 따라서 본 연구에서는 사전 훈련된 언어 모델을 외부 지식 추출기로 활용하여 사전 훈련된 메모리를 추출한다. 우리는 화자에 대한 사전 훈련된 메모리를 맥락 모델과 결합하는 CoMPM(Conversational Memory-Enhanced Pre-trained Model)을 제안하며, 사전 훈련된 메모리가 맥락 모델의 성능을 크게 향상시킴을 확인하였다. CoMPM은 모든 데이터셋에서 최고 또는 2위 성능을 기록하며, 구조화된 데이터를 활용하지 않는 시스템 중 최고 수준의 성능을 보이고 있다. 또한, 기존 방법과 달리 구조화된 지식이 필요 없기 때문에 본 방법이 다른 언어로의 확장이 가능함을 보여주었다. 본 연구의 코드는 GitHub에 공개되어 있다(https://github.com/rungjoo/CoMPM).