WikiText 长期依赖语言建模数据集包含 1 亿个英文词汇,其来自于 Wikipedia 优质文章和标杆文章。
该数据集分为 WikiText-2 和 WikiText-103 两个版本,其相较于 PTB 词库规模更为庞大,并且每个词汇还保留相关的原始文章,这适用于需要长时依赖自然语言建模的场景。
该数据集由 Salesforce Research 于 2016 年发布,主要发布人为 Stephen Merity、Caiming Xiong、James Bradbury 和 Richard Socher,相关论文有《Pointer Sentinel Mixture Models》。
2 做种 0 下载 1035 已完成
文件名 | 大小 |
---|---|
README.md | 1 KB |
README.txt | 1 KB |
wikitext-103-raw-v1.zip | 183 MB |
wikitext-103-v1.zip | 181 MB |
wikitext-2-raw-v1.zip | 4 MB |
wikitext-2-v1.zip | 4 MB |
新建文本文档.txt | 89 B |