HyperAIHyperAI

Command Palette

Search for a command to run...

Console

WikiText 長期依存関係言語モデリング データセット 長期依存関係言語モデリング データセット

日付

3年前

サイズ

373.28 MB

組織

Salesforce リサーチ

WikiText は言語モデリング データ セットに長期的に依存しており、Wikipedia の高品質な記事とベンチマーク記事から得られた 1 億語の英単語が含まれています。

このデータセットは WikiText-2 と WikiText-103 の 2 つのバージョンに分かれており、PTB 語彙データベースよりも大きく、各語彙には関連するオリジナルの記事も保持されており、長期的な依存関係を必要とする自然言語モデリングに適しています。 。

このデータセットは、2016 年に Salesforce Research によってリリースされました。主な発行者は、Stephen Merity、Caiming Xiong、James Bradbury、Richard Socher です。関連論文には、「Pointer Sentinel Mixture Models」などがあります。

WikiText Long Term Dependency Language Modeling Dataset.torrent
シード処理 4ダウンロード中 0完了 1,255総ダウンロード数 2,271
  • WikiText Long Term Dependency Language Modeling Dataset/
    • README.md
      1.46 KB
    • README.txt
      2.92 KB
      • data/
        • wikitext-103-raw-v1.zip
          183.09 MB
        • wikitext-103-v1.zip
          364.51 MB
        • wikitext-2-raw-v1.zip
          369.01 MB
        • wikitext-2-v1.zip
          373.28 MB
        • 新建文本文档.txt
          373.28 MB

AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最適価格のGPUでAI開発を加速。

AI共同コーディング
すぐに利用可能な GPU
最適価格

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています