
要約
我々は、複数の学習分布間で不変の相関を推定するための学習パラダイムである不変リスク最小化(Invariant Risk Minimization: IRM)を紹介します。この目標を達成するために、IRMはデータ表現を学習し、そのデータ表現に基づく最適な分類器がすべての学習分布に対して一致するようにします。理論と実験を通じて、IRMによって学ばれた不変性がデータを支配する因果構造とどのように関連しているか、そしてIRMが分布外汎化を可能にする仕組みについて示しています。
我々は、複数の学習分布間で不変の相関を推定するための学習パラダイムである不変リスク最小化(Invariant Risk Minimization: IRM)を紹介します。この目標を達成するために、IRMはデータ表現を学習し、そのデータ表現に基づく最適な分類器がすべての学習分布に対して一致するようにします。理論と実験を通じて、IRMによって学ばれた不変性がデータを支配する因果構造とどのように関連しているか、そしてIRMが分布外汎化を可能にする仕組みについて示しています。