
摘要
灾难性遗忘是机器学习领域,尤其是神经网络中的一项重大挑战。当神经网络在新任务上表现良好时,往往会遗忘其先前所习得的知识或经验。这一现象的产生源于网络在优化新任务损失函数的过程中,调整其权重与连接结构,从而无意中覆盖或破坏了对先前任务至关重要的特征表示。结果导致网络在早期任务上的性能显著下降,限制了其在连续学习场景中持续学习与适应多任务的能力。本文提出了一种新型方法,旨在有效缓解机器学习应用中的灾难性遗忘问题,尤其聚焦于神经网络场景。该方法致力于在保留网络对过往任务知识的同时,仍能高效地学习新信息。我们通过在多个基准数据集上的实验验证了该方法的有效性,包括Split MNIST、Split CIFAR10、Split Fashion MNIST以及Split CIFAR100。这些数据集通过将原始数据集划分为若干互不重叠的独立任务,模拟了模型需在不遗忘旧知识的前提下顺序学习多个任务的持续学习场景。所提出的方案通过在学习过程中引入协商式表示(negotiated representations),有效平衡了保留历史经验与适应新任务之间的矛盾。该机制使模型能够在更新过程中动态保留关键知识,同时灵活适应新任务的需求。通过对上述具有挑战性的数据集进行评估,我们旨在展示该方法在缓解灾难性遗忘方面的潜力,并提升神经网络在持续学习环境下的整体性能。