HyperAI超神経

累積誤差逆伝播 累積誤差逆伝播

累積誤差逆伝播このアルゴリズムは、ニューラル ネットワーク アルゴリズムであり、累積誤差を最小化する更新ルールに基づいて導出されます。目標は、ターゲットの負の勾配の方向に調整されます。トレーニング エラーは「バック プロパゲーション アルゴリズム」とも呼ばれ、新しいアルゴリズムを使用してトレーニングされた多層フィードフォワード ニューラル ネットワークは「バック プロパゲーション ネットワーク」と呼ばれます。

誤差逆伝播 誤差逆伝播アルゴリズム (BP)

誤差逆伝播アルゴリズムは、順方向ニューラル ネットワークを使用してトレーニング エラーを計算し、そのトレーニング エラーを使用して隠れ層ニューロンに逆に作用します。これにより、各ニューロンの接続重みとしきい値が調整され、継続的な学習によりトレーニング エラーが最小限に抑えられます。更新情報。

現在、ほとんどのニューラル ネットワーク学習は BP アルゴリズムに基づいており、多層フィードフォワード ニューラル ネットワークだけでなく、再帰的ニューラル ネットワークなどの学習にも使用できます。 BP アルゴリズムでトレーニングされた多層フィードフォワード ニューラル ネットワーク。

実施方法

トレーニング例ごとに、アルゴリズムは次の操作を実行します。

  • 入力サンプルは最初に入力層ニューロンに提供され、次に出力層が結果を生成するまで信号が層ごとに転送されます。
  • 次に、出力層の誤差が計算され、その誤差が隠れ層のニューロンに逆伝播されます。
  • 最後に、隠れ層ニューロンのエラーに応じて接続の重みとしきい値が調整されます。

この反復プロセスは、特定の停止条件に達するまでループします。

フォワード ニューラル ネットワーク (FP)

フォワード ニューラル ネットワークは、結果が隠れ層ニューロンを通じて直接取得できる点を除けば、複数のロジスティック回帰の組み合わせとみなすことができます。ただし、異なるカテゴリを合計する必要がある点を除けば、そのコスト関数はロジスティック関数と似ています。