Command Palette
Search for a command to run...
Wiki
機械学習用語集:主要なAIおよびML概念の定義と説明を探索
Search for a command to run...
機械学習用語集:主要なAIおよびML概念の定義と説明を探索
「偏差分散分解」は、学習アルゴリズムの汎化性能をバイアスと分散の観点から説明するツールです。具体的な定義は次のとおりです。 K 個のデータセットがあり、各データセットは分布 p から独立していると仮定します。 (t,x) を抽出します (t は予測対象の変数を表し、x は特性変数を表します)。 さまざまな […]
定義: 期待される出力と実際のマークの差はバイアスと呼ばれます。次の図は、バイアスと分散の関係をよく示しています。
クラス間分散行列は、平均の周囲の各サンプル点の広がりを表すために使用されます。 数学的定義
ベイジアン ネットワークを定義します。ベイジアン ネットワークは、現在、不確実な知識の表現と推論の分野で最も効果的な理論モデルの 1 つです。ベイジアン ネットワークは、変数を表すノードと、これらのノードを接続する有向辺で構成されます。 ノードは確率変数を表し、ノード間の有向エッジはノード間の関係の強さを表現するために使用されます。親ノードはありません。
基本概念 ベイズ決定理論手法は、統計モデルの意思決定における基本的な手法です。その基本的な考え方は、既知のクラスの条件付き確率密度パラメータ式と事前確率を、ベイズ公式を使用して事後確率に従って事後確率に変換するというものです。 -サイズに基づく作成と分類 D1、D2、...、Dn をサンプルとします [...]
全体的なリスクを最小限に抑えるために、クラス ラベルはサンプルのリスク R(c|x) を最小限に抑えることができます。つまり、h∗ はベイズ最適分類子です。
モデルの選択では、通常、一連の候補モデルから「最適な」モデルが選択され、この選択された「最適な」モデルが予測に使用されます。 単一の最適モデルとは異なり、ベイジアン モデルは各モデルに平均重みを割り当て、加重平均を実行して最終的な予測値を決定します。その中で、あるモデルに割り当てられた重みは […]
各サンプル x について、h が条件付きリスク R(h(x)|x) を最小化できる場合、全体のリスクも最小化されます。これにより、ベイズの決定ルールが生まれます。全体的なリスクを最小限に抑えるには、各サンプルのどれが条件付きリスク R(c|x […]
BN は、大規模な畳み込みネットワークのトレーニングを高速化し、収束後の分類精度を向上させる一連の正則化手法です。 BN がニューラル ネットワークの特定の層で使用される場合、各ミニバッチ データは出力を N(0,1) の正規分布に正規化するために内部で標準化され、[…]
アンサンブル学習では、グループによって生成される「個別の学習器」は同種であり、そのような学習器は基本学習器と呼ばれ、対応する学習アルゴリズムは基本学習アルゴリズムと呼ばれます。
長短期記憶 (LSTM) は時間的リカレント ニューラル ネットワーク (RNN) であり、この論文は 1997 年に初めて発表されました。 LSTM は、独自の設計構造により、非常に長い間隔と遅延を伴う時系列の重要なイベントの処理と予測に適しています […]
情報エントロピーは、1948 年にシャノンによって提案されました。情報の冗長性を排除した平均的な情報量を情報エントロピーと呼びます。表現。 情報エントロピーの 3 つの特性は単調性です。つまり、イベントが発生する確率が高くなるほど、イベントが運ぶ情報も多くなります。
知識表現とは、エージェントが関連する知識をどのように合理的に利用するかに関する知識の表現と記述を指し、これは思考を計算プロセスとして扱う研究です。 厳密に言えば、知識表現と知識推論は同じ研究分野の 2 つの密接に関連した概念ですが、実際には知識表現は推論を含む広い概念を指す場合にも使用されます。
指数損失関数は、AdaBoost アルゴリズムでよく使用される損失関数であり、その関数表現は指数形式であり、概略図は次のとおりです。 一般的な損失誤差 指数損失 指数損失: 主に Adaboost アンサンブル学習アルゴリズムで使用されます。
機械学習の分野において、真理とは教師あり学習における分類結果のトレーニングセットの正確な設定値を指し、一般的に誤差推定や効果評価に用いられます。 教師あり学習では、ラベル付きデータは通常 (x, t) の形式で表示されます。x は入力データを表し、t はラベルを表します。正しいラベルは Grou […]
誤差発散分解とは、積分汎化誤差を分解するプロセスを指し、次の式で表すことができます。 $latex {E= \overline {E}- \overline {A}}$ 式の左側は積分誤差を表します。一般化エラー、右側 $latex {\over […]
MCMC は、ランダム分布からのマルコフ連鎖サンプリングに基づくアルゴリズムであり、確率空間でランダムにサンプリングすることで対象のパラメーターの事後分布を近似します。 MCMC の基本理論はマルコフ過程です。関連するアルゴリズムでは、指定された分布でサンプリングするために、まずマルコフ過程に従って任意の状態からシミュレーションできます。
進化的アルゴリズムは、生物界における自然選択と自然遺伝メカニズムの発達に基づいた一般的な問題解決手法です。 基本的な方法: 単純なコーディング技術を使用してさまざまな複雑な構造を表現し、単純な遺伝的操作と適者生存の自然選択を使用して学習を導き、探索を組織化するために母集団アプローチを使用します。
遺伝的アルゴリズム GA は、計算数学における最適化問題を解くために使用される探索アルゴリズムです。これは、進化アルゴリズムの一種であり、元々は、遺伝、突然変異、自然選択、交配などの進化生物学の現象に基づいています。 遺伝的アルゴリズムは通常、コンピューター シミュレーションの形式で実装されます。最適化問題には、次のようなものがあります。
ゲイン レートは通常、ノード分割情報の測定に対するノード情報の比率を表す情報ゲイン レートを指し、他の 2 つの一般的な方法は情報ゲインとジニ インデックスです。 ゲイン率の式は次のとおりです。 $latex {GainRatio{ \left( {R} […]
ヒルベルト空間は完全な内積空間であり、内積を含む完全なベクトル空間として理解できます。 ハルバート空間は有限次元ユークリッド空間に基づいており、実数と有限次元に限定されず、後者の一般化とみなすことができますが、完全ではありません。ユークリッド空間と同様に、ヒルベルト空間も内積空間であり、距離と角度を持っています […]
隠れマルコフ モデル (HMM) は、時系列に関する確率モデルです。隠れマルコフ連鎖によってランダムに生成された観測不可能な状態のランダム シーケンスを記述し、各状態から観測可能なランダム シーケンスを生成します。 隠れマルコフ モデルは、隠れた未知のパラメーターを持つマルコフ モデルを記述するために使用される統計モデルです。
隠れ層は、多段フィードフォワード ニューラル ネットワーク内の入力層と出力層を除いた層を指します。隠れ層は外部信号を直接受信せず、外部に直接信号を送信する必要があるだけです。データが非線形に分離されている場合。 隠れ層上のニューロンは、最大プーリング層や畳み込み層など、さまざまな形式をとることができ、すべて異なる数学関数を実行します。
ハード投票は、クラス ラベルを直接出力する投票方法で、主に分類機械学習アルゴリズムに使用されます。 投票方法は、アンサンブル学習における分類問題の組み合わせ戦略です。基本的な考え方は、アルゴリズム内で最も多くの出力を持つクラスを選択することです。等しい場合は昇順に進みます […]
「偏差分散分解」は、学習アルゴリズムの汎化性能をバイアスと分散の観点から説明するツールです。具体的な定義は次のとおりです。 K 個のデータセットがあり、各データセットは分布 p から独立していると仮定します。 (t,x) を抽出します (t は予測対象の変数を表し、x は特性変数を表します)。 さまざまな […]
定義: 期待される出力と実際のマークの差はバイアスと呼ばれます。次の図は、バイアスと分散の関係をよく示しています。
クラス間分散行列は、平均の周囲の各サンプル点の広がりを表すために使用されます。 数学的定義
ベイジアン ネットワークを定義します。ベイジアン ネットワークは、現在、不確実な知識の表現と推論の分野で最も効果的な理論モデルの 1 つです。ベイジアン ネットワークは、変数を表すノードと、これらのノードを接続する有向辺で構成されます。 ノードは確率変数を表し、ノード間の有向エッジはノード間の関係の強さを表現するために使用されます。親ノードはありません。
基本概念 ベイズ決定理論手法は、統計モデルの意思決定における基本的な手法です。その基本的な考え方は、既知のクラスの条件付き確率密度パラメータ式と事前確率を、ベイズ公式を使用して事後確率に従って事後確率に変換するというものです。 -サイズに基づく作成と分類 D1、D2、...、Dn をサンプルとします [...]
全体的なリスクを最小限に抑えるために、クラス ラベルはサンプルのリスク R(c|x) を最小限に抑えることができます。つまり、h∗ はベイズ最適分類子です。
モデルの選択では、通常、一連の候補モデルから「最適な」モデルが選択され、この選択された「最適な」モデルが予測に使用されます。 単一の最適モデルとは異なり、ベイジアン モデルは各モデルに平均重みを割り当て、加重平均を実行して最終的な予測値を決定します。その中で、あるモデルに割り当てられた重みは […]
各サンプル x について、h が条件付きリスク R(h(x)|x) を最小化できる場合、全体のリスクも最小化されます。これにより、ベイズの決定ルールが生まれます。全体的なリスクを最小限に抑えるには、各サンプルのどれが条件付きリスク R(c|x […]
BN は、大規模な畳み込みネットワークのトレーニングを高速化し、収束後の分類精度を向上させる一連の正則化手法です。 BN がニューラル ネットワークの特定の層で使用される場合、各ミニバッチ データは出力を N(0,1) の正規分布に正規化するために内部で標準化され、[…]
アンサンブル学習では、グループによって生成される「個別の学習器」は同種であり、そのような学習器は基本学習器と呼ばれ、対応する学習アルゴリズムは基本学習アルゴリズムと呼ばれます。
長短期記憶 (LSTM) は時間的リカレント ニューラル ネットワーク (RNN) であり、この論文は 1997 年に初めて発表されました。 LSTM は、独自の設計構造により、非常に長い間隔と遅延を伴う時系列の重要なイベントの処理と予測に適しています […]
情報エントロピーは、1948 年にシャノンによって提案されました。情報の冗長性を排除した平均的な情報量を情報エントロピーと呼びます。表現。 情報エントロピーの 3 つの特性は単調性です。つまり、イベントが発生する確率が高くなるほど、イベントが運ぶ情報も多くなります。
知識表現とは、エージェントが関連する知識をどのように合理的に利用するかに関する知識の表現と記述を指し、これは思考を計算プロセスとして扱う研究です。 厳密に言えば、知識表現と知識推論は同じ研究分野の 2 つの密接に関連した概念ですが、実際には知識表現は推論を含む広い概念を指す場合にも使用されます。
指数損失関数は、AdaBoost アルゴリズムでよく使用される損失関数であり、その関数表現は指数形式であり、概略図は次のとおりです。 一般的な損失誤差 指数損失 指数損失: 主に Adaboost アンサンブル学習アルゴリズムで使用されます。
機械学習の分野において、真理とは教師あり学習における分類結果のトレーニングセットの正確な設定値を指し、一般的に誤差推定や効果評価に用いられます。 教師あり学習では、ラベル付きデータは通常 (x, t) の形式で表示されます。x は入力データを表し、t はラベルを表します。正しいラベルは Grou […]
誤差発散分解とは、積分汎化誤差を分解するプロセスを指し、次の式で表すことができます。 $latex {E= \overline {E}- \overline {A}}$ 式の左側は積分誤差を表します。一般化エラー、右側 $latex {\over […]
MCMC は、ランダム分布からのマルコフ連鎖サンプリングに基づくアルゴリズムであり、確率空間でランダムにサンプリングすることで対象のパラメーターの事後分布を近似します。 MCMC の基本理論はマルコフ過程です。関連するアルゴリズムでは、指定された分布でサンプリングするために、まずマルコフ過程に従って任意の状態からシミュレーションできます。
進化的アルゴリズムは、生物界における自然選択と自然遺伝メカニズムの発達に基づいた一般的な問題解決手法です。 基本的な方法: 単純なコーディング技術を使用してさまざまな複雑な構造を表現し、単純な遺伝的操作と適者生存の自然選択を使用して学習を導き、探索を組織化するために母集団アプローチを使用します。
遺伝的アルゴリズム GA は、計算数学における最適化問題を解くために使用される探索アルゴリズムです。これは、進化アルゴリズムの一種であり、元々は、遺伝、突然変異、自然選択、交配などの進化生物学の現象に基づいています。 遺伝的アルゴリズムは通常、コンピューター シミュレーションの形式で実装されます。最適化問題には、次のようなものがあります。
ゲイン レートは通常、ノード分割情報の測定に対するノード情報の比率を表す情報ゲイン レートを指し、他の 2 つの一般的な方法は情報ゲインとジニ インデックスです。 ゲイン率の式は次のとおりです。 $latex {GainRatio{ \left( {R} […]
ヒルベルト空間は完全な内積空間であり、内積を含む完全なベクトル空間として理解できます。 ハルバート空間は有限次元ユークリッド空間に基づいており、実数と有限次元に限定されず、後者の一般化とみなすことができますが、完全ではありません。ユークリッド空間と同様に、ヒルベルト空間も内積空間であり、距離と角度を持っています […]
隠れマルコフ モデル (HMM) は、時系列に関する確率モデルです。隠れマルコフ連鎖によってランダムに生成された観測不可能な状態のランダム シーケンスを記述し、各状態から観測可能なランダム シーケンスを生成します。 隠れマルコフ モデルは、隠れた未知のパラメーターを持つマルコフ モデルを記述するために使用される統計モデルです。
隠れ層は、多段フィードフォワード ニューラル ネットワーク内の入力層と出力層を除いた層を指します。隠れ層は外部信号を直接受信せず、外部に直接信号を送信する必要があるだけです。データが非線形に分離されている場合。 隠れ層上のニューロンは、最大プーリング層や畳み込み層など、さまざまな形式をとることができ、すべて異なる数学関数を実行します。
ハード投票は、クラス ラベルを直接出力する投票方法で、主に分類機械学習アルゴリズムに使用されます。 投票方法は、アンサンブル学習における分類問題の組み合わせ戦略です。基本的な考え方は、アルゴリズム内で最も多くの出力を持つクラスを選択することです。等しい場合は昇順に進みます […]