Command Palette
Search for a command to run...
Wiki
機械学習用語集:主要なAIおよびML概念の定義と説明を探索
Search for a command to run...
機械学習用語集:主要なAIおよびML概念の定義と説明を探索
一般的な基本学習器は、ロジスティック回帰、決定木、SVM、ニューラル ネットワーク、ベイジアン分類器、K 最近傍法などで構成できます。 同じ種類の学習アルゴリズムによって学習データから個別の学習器が生成される場合、それは同次統合と呼ばれます。このとき、個別の学習器はベース学習器とも呼ばれます。統合には異なる […]
この定義では、x がクラスの状態に依存する連続確率変数であり、p(x|ω) の形式で表現されると仮定しています。これは、「クラス条件付き確率」関数、つまり、次の場合の x の確率関数です。クラス状態は ω です。 クラス条件付き確率関数 $latex P\left(X | w_{i}\ri […]
CART は、入力確率変数 X が与えられた場合に、出力確率変数 Y の条件付き確率分布を学習する方法です。 CART の定義 デシジョン ツリーがバイナリ ツリーであり、内部ノードの特徴の値が "yes" と "no" であり、左の分岐が値 "yes" を持つ分岐であり、右の分岐が値「no」で分岐します。これ[…]
クラスの不均衡は、2 つのクラスのラベルの出現頻度に大きなギャップがあるバイナリ分類問題です。 たとえば、特定の疾患データ セットでは、0.0001 のサンプルが正のクラス ラベルを持ち、0.9999 のサンプルが負のクラス ラベルを持ちます。これは分類の不均衡の問題ですが、特定の […]
閉じた式とは、任意の独立変数が与えられた場合に、従属変数、つまり問題の解を見つけることができるいくつかの厳密な式を指します。この式には、分数、三角関数、指数関数、対数、さらには無限級数が含まれます。 、など、基本関数の解の形式。 相関解を見つけるために使用される方法は、分析的方法とも呼ばれ、一般的な微積分法です […]
クラスター分析は統計データ分析の手法であり、機械学習、データマイニング、パターン認識、画像分析、生体情報などの多くの分野で広く使用されています。 クラスタリングとは、静的な分類方法によって類似のオブジェクトを異なるグループまたはより多くのサブセットに分割し、同じサブセット内のメンバー オブジェクトが […]
クラスタ統合は、クラスタリング結果の精度、安定性、堅牢性を向上させるアルゴリズムです。複数の基本クラスタリング結果を統合することで、より良い結果を生成できます。 この方法の基本的な考え方は、複数の独立したベース クラスタラーを使用して元のデータ セットをそれぞれクラスター化し、その後、何らかの統合手法を使用してそれを処理し、最も […]
デジタル リモート コントロール システムのデコーダの不可欠な部分。双安定フリップフロップとコーディングスイッチで構成されます。各双安定には「1」と「2」の 2 つの状態があります。n 個の双安定がカスケード接続されると、2n 通りの組み合わせがあり、コーディング スイッチはバイナリ コード グループに従って接続されます。エンコーディングマトリックスの目的は、命令を変換することです […]
ACM が主催し、毎年開催される計算学習理論カンファレンスの 1 つ。 計算学習理論は、理論的なコンピューター サイエンスと機械学習の交差点と見なすことができるため、コンピューター サイエンス関連の会議として広く認識されています。 公式サイト:https://learning Theory.org/colt2019 […]
競争学習は人工ニューラルネットワークの学習方法です。 ネットワーク構造が固定されている場合、学習プロセスは接続権の変更に要約されます。競合学習とは、ネットワーク ユニット グループ内のすべてのユニットが外部刺激パターンに応答する権利をめぐって互いに競合することを意味します。 競争に勝ったユニットの接続権は、この刺激モードの競争に有利な方向に変化します […]
コンポーネント学習器は個別学習器の一種で、アンサンブル学習によって生成された個別学習器に基づいています。 個別の学習器が異なる学習アルゴリズムによって生成される場合、それは異種アンサンブルと呼ばれ、これらの個別の学習器はコンポーネント学習器と呼ばれます。
解釈可能性とは、何かを理解したり解決したりする必要があるときに、必要な関連情報を入手できることを意味します。 データ レベルでの解釈可能性: ニューラル ネットワークに、人間自身の知識フレームワークと一致する明確な象徴的な内部知識表現を持たせ、人々がニューラル ネットワークを意味論的レベルで診断および変更できるようにします。 機械学習は解決可能です […]
機械学習分野の分類アルゴリズムは、属性を離散属性と連続属性に分割します。離散属性は有限または無限の可算値を持ち、整数で表される場合と表されない場合があります。たとえば、属性 Hair_color、smoker、medical_test、および Drink_size はすべて有限の値を持ちます。 […]
定義 カスケード相関は、最小の多層ネットワーク トポロジを構築するために使用できる教師あり学習アーキテクチャであり、その利点は、ユーザーがネットワークのトポロジを気にする必要がなく、学習速度が従来の学習アルゴリズムよりも速いことです。 相関アルゴリズム カスケード相関アルゴリズムは次のように実装されます。 入力と出力のみを含む最小限のネットワークから開始します […]
定義: 指定された条件下で、基準物質を含む測定機器の特性に値を割り当て、その表示の誤差を決定するために参照標準が使用されます。 目的: 指示誤差を決定し、それが予想される許容範囲内にあるかどうかを判断し、公称値偏差のレポート値を取得し、測定器を調整するか、指示値を修正します。
定義 微分方程式 $latex \frac{d \mathbf{x}}{dt}=\mathbf{f}(t, \mathbf{x}), \mathbf{x} \in \mathbb{R}^{n の場合$ 、$latex の場合 […]
ブートストラップ法は、特定のトレーニング セットからの置き換えを伴う均一なサンプリングです。つまり、サンプルが選択されるたびに、そのサンプルが再度選択され、トレーニング セットに再度追加される可能性があります。 自助法は、1979 年にブラッドリー・エフロンによって『統計年報』で紹介されました。
サンプルの場合、m 個のサンプルを含むトレーニング セットのランダム サンプリングで毎回収集される確率は 1m です。収集されない確率は 1−1m です。 m 個のサンプルが収集されない確率が (1−1m)m である場合、m→∞ のとき、(1−1m)m→1/e≃0 […]
ボルツマン マシンは、1985 年にジェフリー ヒントンとテリー セジナウスキーによって発明された、確率的ニューラル ネットワークおよびリカレント ニューラル ネットワークの一種です。 ボルツマン マシンは、確率過程の生成応答として見ることができます […]
定義 二分法は、要素の順序付きリストを入力とするアルゴリズムです。 検索対象の要素がリストに含まれている場合、二分検索はその位置を返し、それ以外の場合は null を返します。 基本的な考え方は、この方法はデータ量が大きい場合に適しているということです。 二分検索を使用する場合、データが昇順であることを前提として、データを並べ替える必要があります […]
二項検定は、二分変数の 2 つのカテゴリの観測頻度を、指定された確率パラメーターを使用した二項分布での期待頻度と比較するために定義されます。デフォルトでは、両方のグループの確率パラメーターは 0.5 です。 例: コインを投げると表が出る確率は 1/2 です。 この仮定によれば、コインは 40 回投げられます […]
たとえば、画像が猫であるかどうかを識別したい場合、分類タスクには 2 つのカテゴリしかないことを示します。 つまり、分類器をトレーニングし、特徴ベクトル x で表される画像を入力し、出力が y = 0 または 1 で表される猫かどうかを判断します。2 つのカテゴリー分類では、各サンプルが 1 つだけ設定されていると想定します。ラベル0 […]
定義: ディープ ニューラル ネットワークは、音声認識、画像処理、自然言語処理など、さまざまな方向で優れた結果を示しています。RNN の一種である LSTM は、RNN と比較してデータの長期的な依存関係を学習できます。 2005 年に、Graves は LSTM と […] を組み合わせることを提案しました。
バイアスと分散のジレンマは、バイアスと分散を同時に削減することができず、この 2 つのバランスをとることしかできないことを指します。 モデルでバイアスを軽減したい場合は、過小適合を防ぐためにモデルの複雑性を高めますが、同時にモデルを複雑にしすぎてはなりません。これにより分散が増加し、過大な適合が発生します。フィッティング。したがって、モデルの複雑さのバランス ポイントを見つける必要があります。これにより、[…]
一般的な基本学習器は、ロジスティック回帰、決定木、SVM、ニューラル ネットワーク、ベイジアン分類器、K 最近傍法などで構成できます。 同じ種類の学習アルゴリズムによって学習データから個別の学習器が生成される場合、それは同次統合と呼ばれます。このとき、個別の学習器はベース学習器とも呼ばれます。統合には異なる […]
この定義では、x がクラスの状態に依存する連続確率変数であり、p(x|ω) の形式で表現されると仮定しています。これは、「クラス条件付き確率」関数、つまり、次の場合の x の確率関数です。クラス状態は ω です。 クラス条件付き確率関数 $latex P\left(X | w_{i}\ri […]
CART は、入力確率変数 X が与えられた場合に、出力確率変数 Y の条件付き確率分布を学習する方法です。 CART の定義 デシジョン ツリーがバイナリ ツリーであり、内部ノードの特徴の値が "yes" と "no" であり、左の分岐が値 "yes" を持つ分岐であり、右の分岐が値「no」で分岐します。これ[…]
クラスの不均衡は、2 つのクラスのラベルの出現頻度に大きなギャップがあるバイナリ分類問題です。 たとえば、特定の疾患データ セットでは、0.0001 のサンプルが正のクラス ラベルを持ち、0.9999 のサンプルが負のクラス ラベルを持ちます。これは分類の不均衡の問題ですが、特定の […]
閉じた式とは、任意の独立変数が与えられた場合に、従属変数、つまり問題の解を見つけることができるいくつかの厳密な式を指します。この式には、分数、三角関数、指数関数、対数、さらには無限級数が含まれます。 、など、基本関数の解の形式。 相関解を見つけるために使用される方法は、分析的方法とも呼ばれ、一般的な微積分法です […]
クラスター分析は統計データ分析の手法であり、機械学習、データマイニング、パターン認識、画像分析、生体情報などの多くの分野で広く使用されています。 クラスタリングとは、静的な分類方法によって類似のオブジェクトを異なるグループまたはより多くのサブセットに分割し、同じサブセット内のメンバー オブジェクトが […]
クラスタ統合は、クラスタリング結果の精度、安定性、堅牢性を向上させるアルゴリズムです。複数の基本クラスタリング結果を統合することで、より良い結果を生成できます。 この方法の基本的な考え方は、複数の独立したベース クラスタラーを使用して元のデータ セットをそれぞれクラスター化し、その後、何らかの統合手法を使用してそれを処理し、最も […]
デジタル リモート コントロール システムのデコーダの不可欠な部分。双安定フリップフロップとコーディングスイッチで構成されます。各双安定には「1」と「2」の 2 つの状態があります。n 個の双安定がカスケード接続されると、2n 通りの組み合わせがあり、コーディング スイッチはバイナリ コード グループに従って接続されます。エンコーディングマトリックスの目的は、命令を変換することです […]
ACM が主催し、毎年開催される計算学習理論カンファレンスの 1 つ。 計算学習理論は、理論的なコンピューター サイエンスと機械学習の交差点と見なすことができるため、コンピューター サイエンス関連の会議として広く認識されています。 公式サイト:https://learning Theory.org/colt2019 […]
競争学習は人工ニューラルネットワークの学習方法です。 ネットワーク構造が固定されている場合、学習プロセスは接続権の変更に要約されます。競合学習とは、ネットワーク ユニット グループ内のすべてのユニットが外部刺激パターンに応答する権利をめぐって互いに競合することを意味します。 競争に勝ったユニットの接続権は、この刺激モードの競争に有利な方向に変化します […]
コンポーネント学習器は個別学習器の一種で、アンサンブル学習によって生成された個別学習器に基づいています。 個別の学習器が異なる学習アルゴリズムによって生成される場合、それは異種アンサンブルと呼ばれ、これらの個別の学習器はコンポーネント学習器と呼ばれます。
解釈可能性とは、何かを理解したり解決したりする必要があるときに、必要な関連情報を入手できることを意味します。 データ レベルでの解釈可能性: ニューラル ネットワークに、人間自身の知識フレームワークと一致する明確な象徴的な内部知識表現を持たせ、人々がニューラル ネットワークを意味論的レベルで診断および変更できるようにします。 機械学習は解決可能です […]
機械学習分野の分類アルゴリズムは、属性を離散属性と連続属性に分割します。離散属性は有限または無限の可算値を持ち、整数で表される場合と表されない場合があります。たとえば、属性 Hair_color、smoker、medical_test、および Drink_size はすべて有限の値を持ちます。 […]
定義 カスケード相関は、最小の多層ネットワーク トポロジを構築するために使用できる教師あり学習アーキテクチャであり、その利点は、ユーザーがネットワークのトポロジを気にする必要がなく、学習速度が従来の学習アルゴリズムよりも速いことです。 相関アルゴリズム カスケード相関アルゴリズムは次のように実装されます。 入力と出力のみを含む最小限のネットワークから開始します […]
定義: 指定された条件下で、基準物質を含む測定機器の特性に値を割り当て、その表示の誤差を決定するために参照標準が使用されます。 目的: 指示誤差を決定し、それが予想される許容範囲内にあるかどうかを判断し、公称値偏差のレポート値を取得し、測定器を調整するか、指示値を修正します。
定義 微分方程式 $latex \frac{d \mathbf{x}}{dt}=\mathbf{f}(t, \mathbf{x}), \mathbf{x} \in \mathbb{R}^{n の場合$ 、$latex の場合 […]
ブートストラップ法は、特定のトレーニング セットからの置き換えを伴う均一なサンプリングです。つまり、サンプルが選択されるたびに、そのサンプルが再度選択され、トレーニング セットに再度追加される可能性があります。 自助法は、1979 年にブラッドリー・エフロンによって『統計年報』で紹介されました。
サンプルの場合、m 個のサンプルを含むトレーニング セットのランダム サンプリングで毎回収集される確率は 1m です。収集されない確率は 1−1m です。 m 個のサンプルが収集されない確率が (1−1m)m である場合、m→∞ のとき、(1−1m)m→1/e≃0 […]
ボルツマン マシンは、1985 年にジェフリー ヒントンとテリー セジナウスキーによって発明された、確率的ニューラル ネットワークおよびリカレント ニューラル ネットワークの一種です。 ボルツマン マシンは、確率過程の生成応答として見ることができます […]
定義 二分法は、要素の順序付きリストを入力とするアルゴリズムです。 検索対象の要素がリストに含まれている場合、二分検索はその位置を返し、それ以外の場合は null を返します。 基本的な考え方は、この方法はデータ量が大きい場合に適しているということです。 二分検索を使用する場合、データが昇順であることを前提として、データを並べ替える必要があります […]
二項検定は、二分変数の 2 つのカテゴリの観測頻度を、指定された確率パラメーターを使用した二項分布での期待頻度と比較するために定義されます。デフォルトでは、両方のグループの確率パラメーターは 0.5 です。 例: コインを投げると表が出る確率は 1/2 です。 この仮定によれば、コインは 40 回投げられます […]
たとえば、画像が猫であるかどうかを識別したい場合、分類タスクには 2 つのカテゴリしかないことを示します。 つまり、分類器をトレーニングし、特徴ベクトル x で表される画像を入力し、出力が y = 0 または 1 で表される猫かどうかを判断します。2 つのカテゴリー分類では、各サンプルが 1 つだけ設定されていると想定します。ラベル0 […]
定義: ディープ ニューラル ネットワークは、音声認識、画像処理、自然言語処理など、さまざまな方向で優れた結果を示しています。RNN の一種である LSTM は、RNN と比較してデータの長期的な依存関係を学習できます。 2005 年に、Graves は LSTM と […] を組み合わせることを提案しました。
バイアスと分散のジレンマは、バイアスと分散を同時に削減することができず、この 2 つのバランスをとることしかできないことを指します。 モデルでバイアスを軽減したい場合は、過小適合を防ぐためにモデルの複雑性を高めますが、同時にモデルを複雑にしすぎてはなりません。これにより分散が増加し、過大な適合が発生します。フィッティング。したがって、モデルの複雑さのバランス ポイントを見つける必要があります。これにより、[…]