HyperAI超神経

配布外の一般化

Out-of-Distribution Generalization (略して OOD Generalization) は、トレーニング データの分布とテスト データの分布が一致しない場合のモデルの汎化能力の問題を解決することを目的としており、未知または予測不可能なデータにモデルを適応させる方法に焦点を当てています。データの分散が確認された場合でも、良好なパフォーマンスと安定性を維持できます。

従来の機械学習タスクでは、トレーニング データとテスト データが同じ分布 (独立した同一の分布、iid) から得られると想定されることがよくあります。ただし、実際のアプリケーションでは、この仮定が当てはまらないことがよくあります。たとえば、トレーニング データは特定の環境または条件から取得される場合がありますが、テスト データはまったく異なる環境から取得される場合があります。この分布の違いにより、テスト データのモデルのパフォーマンスが大幅に低下する可能性があります。分布外一般化の目標は、この分布シフト問題を解決して、モデルが目に見えないデータ分布に適応して一般化できるようにすることです。