HyperAIHyperAI

Command Palette

Search for a command to run...

SenseBERT: BERTに意味をもたらす

Yoav Levine Barak Lenz Or Dagan Ori Ram Dan Padnos Or Sharir Shai Shalev-Shwartz Amnon Shashua Yoav Shoham

概要

大規模な未ラベルコーパスから学習する能力は、ニューラル言語モデルが自然言語理解の最先端を推進することを可能にしました。しかし、既存の自己監督技術は単語形態レベルで動作しており、これは潜在的な意味内容の代替となっています。本論文では、弱い監督を直接単語意味レベルで利用する方法を提案します。我々のモデル「SenseBERT」は、マスクされた単語だけでなくそのWordNet超感(supersenses)も予測するように事前学習されています。これにより、人間によるアノテーションを使用せずに、言葉と意味のレベルでの言語モデルを実現しています。SenseBERTは著しく改善された辞書的意味理解を達成しており、これはSemEval単語意味曖昧性解消タスクにおける実験結果やWord in Contextタスクでの最先端の成果によって示されています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています