2ヶ月前
応答選択モデルは本当に次を知っているのか?マルチターン応答選択のための発話操作戦略
Taesun Whang; Dongyub Lee; Dongsuk Oh; Chanhee Lee; Kijong Han; Dong-hun Lee; Saebyeok Lee

要約
本論文では、ユーザとシステムの発話履歴を基に最適な応答を選択するタスクについて研究しています。近年、事前学習言語モデル(例:BERT、RoBERTa、ELECTRA)は様々な自然言語処理タスクにおいて大幅な改善を示しました。同様の応答選択タスクも、これらの言語モデルを使用して対話-応答の二値分類タスクとして定式化することで解決できます。既存の研究ではこのアプローチが成功し、最先端の結果を得ていますが、私たちはこのような方法で学習された言語モデルが多ターン対話システムの逐次的な性質を無視し、履歴と候補との関連性に基づいて予測を行う傾向があることを観察しました。これは、応答選択タスクだけでは発話間の時間依存関係を学習するのに十分ではないことを示唆しています。これを解決するために、私たちは発話操作戦略(Utterance Manipulation Strategies: UMS)を提案します。具体的には、UMSは挿入、削除、検索などの複数の戦略から構成されており、これらの戦略は応答選択モデルが対話の一貫性を維持することを支援します。さらに、UMSは追加の注釈を必要としない自己監督手法であるため、既存のアプローチに簡単に組み込むことができます。複数言語とモデルでの広範な評価により、UMSが対話の一貫性を教える上で非常に効果的であり、複数の公開ベンチマークデータセットで大幅に最先端性能を向上させることにつながることが確認されました。