HyperAIHyperAI

Command Palette

Search for a command to run...

Sutra 10B Pretraining 教学训练数据集

日期

4 小时前

许可证

Apache 2.0

Sutra 10B Pretraining 是一个用于大语言模型预训练的高质量教学数据集,由 Sutra 框架生成,创建了结构化的教育内容,优化了语言模型的预训练。这是 Sutra 系列中最大的一个数据集,旨在展示密集、精心策划的数据集如何为小型语言模型提供最佳的预训练性能。

该数据集共包含 10,193,029 条教学记录,总规模超过 100 亿个 token,涵盖跨学科、技术、科学、社会研究、数学、生活技能、艺术与创意、语言艺术以及哲学与伦理学等九大领域。数据内容遵循成熟的教学范式设计,难度由基础到高级划分为 10 个等级,具备良好的层次性与系统性。

用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供