2ヶ月前

157言語の単語ベクトルの学習

Edouard Grave; Piotr Bojanowski; Prakhar Gupta; Armand Joulin; Tomas Mikolov
157言語の単語ベクトルの学習
要約

分散表現(distributed word representations)または単語ベクトル(word vectors)は、最近自然言語処理の多くのタスクに適用され、最先端の性能を達成しています。これらの表現を成功裏に適用するための重要な要素は、非常に大規模なコーパスでそれらを学習し、下流のタスクでこれらの事前学習済みモデルを使用することです。本論文では、157言語の高品質な単語表現をどのように学習したかについて説明します。これらのモデルの学習には、フリー百科事典であるウィキペディアとコモンクロールプロジェクトからのデータの2つのデータソースを使用しました。また、フランス語、ヒンディー語、ポーランド語用に3つの新しい単語類似性データセットを導入し、これらの単語ベクトルを評価するために使用します。最後に、評価データセットが存在する10言語において、我々の事前学習済み単語ベクトルを評価し、従来のモデルと比較して非常に優れた性能を示しています。

157言語の単語ベクトルの学習 | 最新論文 | HyperAI超神経