11 天前

生成式多模态预训练模型的提示调优

Hao Yang, Junyang Lin, An Yang, Peng Wang, Chang Zhou, Hongxia Yang
生成式多模态预训练模型的提示调优
摘要

提示调优(Prompt Tuning)已成为模型微调的一种新范式,在自然语言预训练乃至视觉预训练中均展现出显著成效。在本工作中,我们探索将提示调优方法迁移至多模态预训练领域,重点关注生成式多模态预训练模型,而非对比式模型。具体而言,我们在一个统一的序列到序列预训练模型上实现提示调优,该模型能够适应理解与生成两类任务。实验结果表明,轻量级的提示调优方法在性能上可与全模型微调相媲美,并优于其他轻量级调优方法。此外,与微调模型相比,提示调优模型在对抗攻击下展现出更强的鲁棒性。我们进一步发现,提示长度、提示深度以及重参数化策略等实验因素对模型性能具有显著影响,因此基于实验观察,我们提出了针对提示调优设置的实用建议。尽管提示调优展现出诸多优势,我们仍识别出其存在的若干局限性,并据此指出了未来研究的可能方向。相关代码已开源,地址为:\url{https://github.com/OFA-Sys/OFA}。

生成式多模态预训练模型的提示调优 | 最新论文 | HyperAI超神经