HyperAIHyperAI

Command Palette

Search for a command to run...

自己教師あり事前学習の向上を図るための完全に探索されたマスク言語モデル

Mingzhi Zheng Dinghan Shen Yelong Shen Weizhu Chen Lin Xiao

概要

マスク言語モデル(MLM)フレームワークは、自己教師付き言語事前学習において広く採用されている。本論文では、MLMにおけるランダムにサンプリングされたマスクが不適切な大きさの勾配分散を引き起こす可能性があると主張する。そこで、特定のテキストシーケンスに対して、異なる2つのマスク間のハミング距離と勾配共分散を関連付けることで、勾配分散を理論的に定量化する。マスクのサンプリングに起因する分散を低減するために、テキストシーケンスを重複のない一定数のセグメントに分割し、各セグメント内のトークンを一括してマスクする「完全に探索されたマスキング戦略」を提案する。理論的にも、この新たなマスキングスキームから得られる勾配は分散が小さく、自己教師付き学習の効率性を向上させられることを証明する。継続的事前学習およびスクラッチからの汎用的事前学習の両方において、広範な実験を実施した結果、この新しいマスキング戦略が標準的なランダムマスキングを一貫して上回ることが実証された。詳細な効率性分析およびアブレーションスタディにより、MLMフレームワーク下における当該戦略の優位性がさらに裏付けられた。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています