9日前

LLMを用いたスクリプトクラスタリングの自動チューニング:正規化最大固有ギャップを用いた話者ダイアライゼーション

Tae Jin Park, Kyu J. Han, Manoj Kumar, Shrikanth Narayanan
LLMを用いたスクリプトクラスタリングの自動チューニング:正規化最大固有ギャップを用いた話者ダイアライゼーション
要約

本研究では、話者ダイアライゼーションの文脈において、クラスタリング手法のパラメータを自動調整できる新たなスペクトルクラスタリングフレームワークを提案する。提案手法は、開発データにおけるパラメータチューニングを一切用いずに、アフィニティ行列の各行の要素に対する閾値設定およびクラスタ数の推定に、正規化最大固有値ギャップ(NME: Normalized Maximum Eigengap)値を活用する。この手動チューニングを不要とするアプローチにもかかわらず、従来の慎重なパラメータ調整と開発データを用いた手法と比較して、さまざまな評価セットにおいて同等あるいは優れた性能を達成した。特に、広く知られたCALLHOME評価セットにおいて、話者誤り率(SER)で17%の相対的改善が得られたことから、自動チューニングを備えた本手法の有効性が示された。

LLMを用いたスクリプトクラスタリングの自動チューニング:正規化最大固有ギャップを用いた話者ダイアライゼーション | 最新論文 | HyperAI超神経