HyperAIHyperAI

Command Palette

Search for a command to run...

大規模増分学習

Yue Wu Yinpeng Chen Lijuan Wang Yuancheng Ye Zicheng Liu Yandong Guo Yun Fu

概要

現代の機械学習は、新しいクラスを逐次的に学習する際に、既存のクラスに関する知識を忘れてしまう「カタストロフィック・フォーティング」に苦しんでいます。これは、古いクラスのデータが不足しているため、性能が著しく低下する現象です。この問題に対処するために、知識蒸留や古いクラスから少数のサンプルを保持する手法を用いて、古いクラスから得られた知識を維持する逐次学習方法が提案されています。しかし、これらの手法は多数のクラスに対してスケールアップすることが困難です。我々は、この問題が次の2つの要因の組み合わせによるものであると考えています:(a) 古いクラスと新しいクラス間のデータ不均衡、および (b) 視覚的に類似したクラス数の増加。特に訓練データが不均衡な場合、視覚的に類似したクラス数が増えることで区別することが非常に難しくなります。そこで我々は、このデータ不均衡問題に対処する単純かつ効果的な手法を提案します。最後の全結合層が新しいクラスに強いバイアスを持っていることがわかりました。このバイアスは線形モデルによって修正することができます。2つのバイアスパラメータを使用することで、当手法は大規模な2つのデータセットで優れた性能を発揮しました:ImageNet(1000クラス)とMS-Celeb-1M(10000クラス)。それぞれ最新のアルゴリズムに対して11.1%と13.2%上回る結果を得ています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
大規模増分学習 | 記事 | HyperAI超神経