Command Palette

Search for a command to run...

UCIT 连续指令调优数据集

日期

2 个月前

大小

6.07 GB

机构

chinese academy of sciences (中国科学院)
University of Chinese Academy of Sciences

论文链接

2503.12941

许可协议

CC BY 4.0

UCIT,全称 Unseen Continual Instruction Tuning,是由中国科学院自动化研究所联合中国科学院大学前沿交叉科学学院、人工智能学院等团队于 2025 年发布的一个多模态大型语言模型的持续指令调优基准数据集,相关论文成果为「HiDe-LLaVA: Hierarchical Decoupling for Continual Instruction Tuning of Multimodal Large Language Model」。

该数据集包含六个精选任务子集,每个子集对应一种模型在监督微调阶段未接触的任务类型,共形成一个具有挑战性的「未见任务」测试集合,可以用来公平评测模型的适应性与结构保留能力。每条样本由任务说明(prompt/instruction)和对应的正确执行期望(ground-truth response)构成,用于衡量模型在零样本条件下的表现。

UCIT.torrent
做种 1正在下载 0已完成 9总下载次数 23
  • UCIT/
    • README.md
      1.65 KB
    • README.txt
      3.3 KB
      • data/
        • UCIT.zip
          6.07 GB

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供