Command Palette
Search for a command to run...
Vihari Piratla Purvam Jain Darshan Singh Partha Talukdar Trevor Cohn

要約
ウェブ上や大規模コーパスにおいて、一般的に知識は一つまたは数個の自然言語で表現される。大規模言語モデル(LLM)は、ある源言語から知識を習得し、ターゲット言語でのクエリに対してもアクセス可能にするという橋渡しの役割を果たす。これまでの研究では、クロスリンガルギャップと呼ばれる現象が指摘されており、これは、クエリが源言語で行われた場合と比べて、ターゲット言語でクエリが行われた場合に精度が低下するという現象である。既存の研究では、源言語とターゲット言語における潜在表現の乖離が、このクロスリンガルギャップの原因であると説明している。本研究では、この見解とは異なり、ターゲット言語における応答のばらつきがこのギャップの主な原因であると仮説を立てた。本研究では、初めてバイアス-バリアンス分解の観点からクロスリンガルギャップを形式化した。提案された定式化および仮説を裏付ける広範な実験的証拠を提示する。さらに、推論時に複数の介入手法を用いて応答のばらつきを制御し、クロスリンガルギャップを低減することで、仮説を強化した。特に、単純なプロンプト指示を導入することで応答のばらつきを低減でき、異なるモデルにおいてターゲット言語の精度が20~25%向上することを示した。