模型崩溃 (Model Collapse) 是一个在人工智能领域,特别是在机器学习和深度学习模型训练中出现的问题。它指的是当模型在训练过程中开始生成与真实数据分布相差甚远的数据时,模型的性能会急剧下降,最终导致模型输出变得毫无意义。
模型崩溃的概念在 2024 年得到了广泛的关注,特别是在大型语言模型 (LLMs) 的训练中。论文「Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data」通过实验和理论分析探讨了模型崩溃问题,并提出了通过积累数据来避免模型崩溃的策略,该论文已发表于发表于「ICML 2024 Workshop on Foundation Models in the Wild」。论文指出,当模型在自身生成的数据上进行训练时,会导致模型性能逐渐下降,直至模型变得无用。这种现象被称为模型崩溃。研究者们通过实验验证了当原始真实数据被每一代合成数据替代时,确实会导致模型崩溃。然后他们展示了通过积累连续几代的合成数据以及原始真实数据可以避免模型崩溃,这些结果在一系列模型大小、架构和超参数中都成立。
【2】Is generative AI doomed? An expert’s take on the “model collapse” theory