
要約
デコーダー型トランスフォーマーは、パラメータ数が数百億にまで拡大し続けている。その規模の大きさにより、プロンプティングまたはファインチューニングを用いることで、さまざまな言語タスクにおいて最先端の性能を達成している。しかし、こうした大規模な基礎モデルは、意味検索や文埋め込み(sentence embeddings)の分野では依然として利用が難しい状態にあり、新たな最先端の成果の実現が阻まれ、組織が別途モデルを訓練・維持する必要が生じている。こうした課題に対応して、本研究ではSGPTを提案する。SGPTは、プロンプティングまたはファインチューニングを用いることで、デコーダー型モデルを文埋め込みおよび意味検索に活用する手法である。パラメータ数58億のSGPTは、従来の最高性能を7%の差で上回り、BEIR検索ベンチマークにおいて1750億パラメータを有する同時期の手法をも凌駕している。コード、モデル、および結果ファイルは、https://github.com/Muennighoff/sgpt にて無料で公開されている。