7 天前

DiverGen:通过学习更广泛的数据分布并引入更多样化的生成数据提升实例分割性能

Chengxiang Fan, Muzhi Zhu, Hao Chen, Yang Liu, Weijia Wu, Huaqi Zhang, Chunhua Shen
DiverGen:通过学习更广泛的数据分布并引入更多样化的生成数据提升实例分割性能
摘要

实例分割任务对数据量需求较大,随着模型容量的增加,数据规模在提升精度方面变得愈发关键。然而,当前大多数实例分割数据集依赖昂贵的手动标注,严重限制了其数据规模。基于此类数据训练的模型容易在训练集上出现过拟合,尤其在稀有类别上表现更为明显。尽管近期研究尝试利用生成模型构建合成数据以实现数据增强,但这些方法未能充分挖掘生成模型的全部潜力。为解决上述问题,我们提出一种更高效的生成数据集构建策略,命名为 DiverGen。首先,我们从分布差异的角度阐释了生成数据的作用。通过研究不同数据对模型所学习分布的影响,我们指出:生成数据能够扩展模型可学习的数据分布范围,从而有效缓解过拟合问题。此外,我们发现生成数据的多样性对提升模型性能至关重要,并提出多种增强多样性的策略,包括类别多样性、提示(prompt)多样性以及生成模型多样性。借助这些策略,我们可将数据规模扩展至数百万级别,同时保持模型性能持续提升的趋势。在 LVIS 数据集上的实验表明,DiverGen 显著优于强基线模型 X-Paste,在所有类别上分别实现 +1.1 的框平均精度(box AP)和 +1.1 的掩码平均精度(mask AP),在稀有类别上更是分别达到 +1.9 的 box AP 和 +2.5 的 mask AP。

DiverGen:通过学习更广泛的数据分布并引入更多样化的生成数据提升实例分割性能 | 最新论文 | HyperAI超神经