HyperAIHyperAI

Command Palette

Search for a command to run...

157言語の単語ベクトルの学習

Edouard Grave Piotr Bojanowski Prakhar Gupta Armand Joulin Tomas Mikolov

概要

分散表現(distributed word representations)または単語ベクトル(word vectors)は、最近自然言語処理の多くのタスクに適用され、最先端の性能を達成しています。これらの表現を成功裏に適用するための重要な要素は、非常に大規模なコーパスでそれらを学習し、下流のタスクでこれらの事前学習済みモデルを使用することです。本論文では、157言語の高品質な単語表現をどのように学習したかについて説明します。これらのモデルの学習には、フリー百科事典であるウィキペディアとコモンクロールプロジェクトからのデータの2つのデータソースを使用しました。また、フランス語、ヒンディー語、ポーランド語用に3つの新しい単語類似性データセットを導入し、これらの単語ベクトルを評価するために使用します。最後に、評価データセットが存在する10言語において、我々の事前学習済み単語ベクトルを評価し、従来のモデルと比較して非常に優れた性能を示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています