2 个月前

Meta-SGD:快速学习以适应少量样本学习

Zhenguo Li; Fengwei Zhou; Fei Chen; Hang Li
Meta-SGD:快速学习以适应少量样本学习
摘要

少样本学习对于那些孤立且从零开始学习每个任务的学习算法来说是一个挑战。相比之下,元学习通过从许多相关任务中学习一个元学习器,能够在较少的样本下更快、更准确地学习新任务,其中元学习器的选择至关重要。在本文中,我们开发了Meta-SGD,这是一种类似于SGD(随机梯度下降)、易于训练的元学习器,可以在监督学习和强化学习中仅通过一步操作初始化和适应任何可微分的学习器。与流行的元学习器LSTM相比,Meta-SGD在概念上更为简单,实现起来更容易,并且可以更高效地进行学习。与最新的元学习器MAML相比,Meta-SGD具有更高的容量,不仅学会了初始化学习器,还学会了调整学习方向和学习率,所有这些都在单一的元学习过程中完成。Meta-SGD在回归、分类和强化学习中的少样本学习任务上表现出高度竞争力。

Meta-SGD:快速学习以适应少量样本学习 | 最新论文 | HyperAI超神经