Command Palette
Search for a command to run...
百科事典
我々は数百の関連エントリーを収集し、「人工知能」を理解するための数百のAI関連エントリー
Search for a command to run...
我々は数百の関連エントリーを収集し、「人工知能」を理解するための数百のAI関連エントリー
平均二乗誤差は、推定量と真の量の間の差異の程度を反映する期待値であり、データの変化の程度を評価し、データの精度を予測するためによく使用されます。 パラメータ があり、その推定関数が
であると仮定し、次に $latex {MSE […]
機械翻訳は、コンピューターを使用してさまざまな言語を、通常はソース言語からターゲット言語に変換することです。 翻訳プロセス 人間による翻訳から機械翻訳を見ると、翻訳プロセスは次のように分類できます。ソース テキストの意味を解釈し、解析されたテキストの意味をターゲット言語に再コンパイルします。 翻訳方法 一般的な機械翻訳の手順 […]
多様体仮定は半教師あり学習でよく使用される仮定であり、もう 1 つはクラスタリング仮定です。 多様体仮定は、通常は小さな局所領域内にある類似の特性を持つ例を指し、したがって、決定関数の局所的な滑らかさを反映するラベル付けが非常に類似しています。 全体的な特性に焦点を当てるクラスタリング仮説とは異なり、多様体仮説はモデルの […]
最尤推定は、モデルの観測値を最終的な選択肢として最大化する可能性のあるデータを見つけて、モデル パラメーターを決定するために主に使用される推定方法です。 最尤推定におけるサンプリングは、独立かつ同一の分布という仮定を満たしており、その目的は、既知のサンプル結果を使用して、関連する結果をもたらすパラメータ値を最大の確率で推測することです。
遅延学習は、テスト サンプルを受信しながらトレーニングするトレーニング セットの処理方法です。これに対し、熱心な学習は、トレーニング フェーズ中にサンプルから学習を開始します。 タスク データが頻繁に変更される場合は、遅延学習方法を使用できます。最初にトレーニングは実行されず、予測リクエストを受信した後、現在のデータに基づいて予測が行われます。
類推学習は、2 つの種類の物事や状況を比較して、オブジェクトレベルでの類似の関係を見つけ、それを基礎として物事と状況の間の関係を適切に整理/交換する認知的思考と推測の方法です。別のものに対応して、対応する解決策を取得します。 類推学習の分類方法には次のようなものがあります […]
ホールドアウト法は、データセット D を 2 つの相互に排他的なセットに分割するモデル評価方法です。一方のセットがトレーニング セット S で、もう一方のセットがテスト セット T であると仮定すると、D = S ∪ T , S ∩ となります。 T = ∅ トレーニング/テスト セットの分割では、[…]
枝刈りは、デシジョン ツリーの分岐を停止する方法です。これは、デシジョン ツリーの過剰適合の問題を解決する手段です。
仮説検定とは、統計的な仮説を検定する手法で、主に推論統計に用いられます。「統計的仮説」は、主に未知のパラメータを推定できるという前提で、確率変数のモデルを観察することによって行われます。 、結果は未知のパラメータ値について適切な推論を行います。 1 つ以上のパラメーターについて行われる統計的な仮定。[…]
アンサンブル学習は、複数のモデルを高精度のモデルに結合するという考え方で、主に機械学習の分野で使用されます。独立した機械学習アルゴリズムではなく、複数の学習器を構築して組み合わせることで学習タスクを完了します。 統合学習は、分類問題、回帰問題、特徴選択、外れ値検出などに使用できます。すべての機械学習であると言えます。
誤り訂正出力符号化方式 ECOC は、複数カテゴリの問題を複数の 2 カテゴリ問題に変換でき、誤り訂正出力コード自体に誤り訂正機能があるため、教師あり学習アルゴリズムの予測精度を向上できます。 出力カテゴリをコーディングすると、マルチカテゴリの問題を 2 つのカテゴリに分割できます。つまり、各カテゴリは長さ n のバイナリ ビット文字列に対応し、合計 m 個のコードワードを形成します。
経験的リスクは、トレーニング サンプルに対するモデルの予測能力を示します。これは、すべてのトレーニング サンプルの損失関数を計算し、累積して平均することによって、予想リスク、経験的リスク、構造的リスクの基礎となります。 損失関数は単一の特定のサンプルに対するもので、モデルの予測値と真の値の差を表します。 […]
K-means クラスタリングは初期の信号処理に使用されていたベクトル量子化手法で、現在はクラスター分析手法として主にデータマイニングの分野で活躍しています。 k-means クラスタリングの目的は、n 個の点を k 個のクラスタに分割し、各点が最も近い平均に対応するクラスタに属するようにし、これをクラスタリングの標準として使用することです。
マージン理論はサポート ベクター マシンの概念です。マージンとは、超平面で割られた 2 種類のサンプル間の最小距離を指します。マージン理論は、AdaBoost アルゴリズムのトレーニング エラーが 0 の場合、トレーニングを継続できることを説明するために使用できます。モデルの汎化パフォーマンスをさらに向上させます。 x と y がサンプルの入力を表すものとし、[…]
パーセプトロンは、フィードフォワード ニューラル ネットワークの最も単純な形式と見なすことができる 2 値線形分類モデルであり、1957 年に Frank Rosenblatt によって発明されました。入力はインスタンスの特徴ベクトル、出力はインスタンスのカテゴリです。
International Conference on Neural Information Processing Systems (NIPS) は、NIPS 財団が毎年 12 月に主催する機械学習およびニューラル コンピューティング分野のトップカンファレンスです。
正規化は、データを指定された範囲にマッピングすることであり、異なる次元のデータの次元と次元単位を削除して、異なるデータ インジケーター間の比較可能性を向上させるために使用されます。
近位勾配法 (PGD) は特殊な勾配降下法であり、主に目的関数が微分不可能な最適化問題を解くために使用されます。
ポスト枝刈りは、決定木が生成された後に実行される枝刈り操作を指します。
確率的グラフィカル モデルとは、変数間の相関関係をグラフ構造を使用して表現する確率的モデルを指します。
回帰は、数値連続確率変数を予測およびモデル化するための教師あり学習アルゴリズムです。
ルール学習は、学習データから原子命題で構成される一連の IF-THEN ルールを学習することであり、教師なし学習の一種であり、分類の一種として分類されることがよくあります。
ルート ノードは、ツリー データ構造の最初のノードです。通常のノードには親ノードと子ノードがある場合がありますが、ルート ノートは最初のノードであるため、子ノードのみが存在します。
粒子群最適化アルゴリズム (PSO) は、粒子群アルゴリズムとも呼ばれ、群インテリジェンス理論に基づいた最適化アルゴリズムです。群内の粒子は、各反復検索プロセス中に問題の最適化プロセスを完了します。