Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
ヒルベルト空間は完全な内積空間であり、内積を含む完全なベクトル空間として理解できます。 ハルバート空間は有限次元ユークリッド空間に基づいており、実数と有限次元に限定されず、後者の一般化とみなすことができますが、完全ではありません。ユークリッド空間と同様に、ヒルベルト空間も内積空間であり、距離と角度を持っています […]
隠れマルコフ モデル (HMM) は、時系列に関する確率モデルです。隠れマルコフ連鎖によってランダムに生成された観測不可能な状態のランダム シーケンスを記述し、各状態から観測可能なランダム シーケンスを生成します。 隠れマルコフ モデルは、隠れた未知のパラメーターを持つマルコフ モデルを記述するために使用される統計モデルです。
隠れ層は、多段フィードフォワード ニューラル ネットワーク内の入力層と出力層を除いた層を指します。隠れ層は外部信号を直接受信せず、外部に直接信号を送信する必要があるだけです。データが非線形に分離されている場合。 隠れ層上のニューロンは、最大プーリング層や畳み込み層など、さまざまな形式をとることができ、すべて異なる数学関数を実行します。
ハード投票は、クラス ラベルを直接出力する投票方法で、主に分類機械学習アルゴリズムに使用されます。 投票方法は、アンサンブル学習における分類問題の組み合わせ戦略です。基本的な考え方は、アルゴリズム内で最も多くの出力を持つクラスを選択することです。等しい場合は昇順に進みます […]
独立同一分布 (IID) とは、確率変数のセット内の各変数の確率分布が同じであり、これらの確率変数が互いに独立していることを意味します。独立して同一に分布する確率変数のセットは、次のことを意味しません。サンプル空間内の各イベントの確率は同じです。たとえば、不均一なサイコロを振ることによって得られる一連の結果は、独立して同一に分布しますが、すべて […]
増分学習とは、新しいデータが追加されたときに、以前に学習した知識のほとんどを保持しながら、新しいサンプルから新しい知識を継続的に学習できることを意味します。 増分学習は人間の学習モデルに似ており、段階的な蓄積と更新のプロセスです。 従来の学習方法は、すべてのデータを準備するバッチ学習です […]
ナレッジ ベースは、関連分野の知識の収集、整理、抽出を容易にするための知識管理に使用される特別なデータベースです。ライブラリ内の知識は、問題を解決するために関連分野の知識を集めたものです。基本的な事実、ルールおよびその他の関連情報。 ナレッジベースは、構造化され、操作が簡単で、使いやすく、包括的なものです […]
K - 最近傍アルゴリズム KNN は、基本的な分類および回帰アルゴリズムであり、それ自体に最も近い K 点を使用して、分類されたデータの分類を決定するための投票を行います。 KNN の特徴 KNN は遅延学習に属します。KNN は計算量が高く、K の値が異なると分類結果も異なります。
JS ダイバージェンスは、2 つの確率分布の類似性を測定します。これは、KL ダイバージェンスの変形に基づいており、KL ダイバージェンスの非対称性の問題を解決します。一般に、JS の発散は対称であり、その値は 0 から 1 の間です。 定義は次のとおりです: KL 発散と JS 発散を測定するときに問題があります: 2 つの場合 […]
最小二乗回帰木は、一般的に使用される回帰木アルゴリズムです。 二乗誤差を最小限に抑えるには、各特徴の値を順番に走査し、現在考えられるセグメンテーション ポイントの誤差を計算し、最後にセグメンテーション 誤差が最小の点を選択して入力空間を 2 つの部分に分割する必要があります。 、セグメンテーションが終了するまで上記の手順を繰り返し、この方法ではカット […]
潜在ディリクレ分布 LDA は、ドキュメント セット内の各ドキュメントのトピックを確率分布の形式で表現できるトピック モデルであり、トレーニング中に手動でラベル付けされたトレーニング セットを必要としない教師なし学習アルゴリズムでもあります。ドキュメント セットを作成し、トピック K の数を指定します。さらに、トピックごとに […]
最小記述長は、最小記述長原則とも呼ばれ、データを保存するためのさまざまな仮説の中で、最も多くのデータ圧縮効果を生み出すことができる仮説が最良であることを意味します。 最小記述長の原則は、1978 年にヨルマ・リッサネンによって導入されたオッカムの剃刀の形式化された結果です。その主なポイントは次のとおりです。
メタ学習は、機械学習のサブフィールドであり、自動学習アルゴリズムが機械学習実験のメタデータに適用されます。 メタ学習の核心は「学習(トレーニング)」プロセスであり、ニューロンが新しいタスクに応じて自らを調整できるように、古い知識をどのように活用するかを研究することです。 概略図は次のとおりです。ニューラルネットワーク(青 ■ [ …]
最大プーリングは、最大値を使用してデータ量を削減する一般的なプーリング操作であり、入力画像をいくつかの長方形領域に分割し、各サブドメインの最大値を出力します。 現在、一般的に使用されているプーリング方法には、最大プーリングと平均プーリングが含まれます。これらは、上位隠れ層からの複雑な計算を軽減し、ターゲットから独立させることができます。
最大間隔とは、分類タスクにおいてトレーニング データの間隔が最大である状況を指します。この最大間隔を満たす超平面は、データを正のカテゴリと負のカテゴリに分割できます。このとき、意思決定の信頼度は最も高くなります。 サポート ベクター マシンには、ハード マージンの最大化とソフト マージンの最大化があり、どちらも最大のマージンを見つけるための戦略です。
マルコフランダムフィールドは、無向グラフによって記述されるモデルであり、各ノードは単一の変数または変数のグループに対応します。 マルコフ乱数場は、複数のデータ ポイント間で、2 つのポイント間には明確な前方、後方、および方向の関係がないことを記述します。ただし、2 つのポイントは相互に関係しています […]
自動要約は、元の文書の重要なポイントを含む要約を作成するために、ソフトウェアを使用してテキスト文書を短縮するプロセスであり、現在は機械学習とデータマイニングの分野の一部であり、その目的はデータのサブセットを見つけることです。関連する「情報」が含まれています。 自動要約には現在、抽出と抽出という 2 つの方法があります。抽出は元のテキストの単語やフレーズに基づいています。
自動音声認識技術は、人間の音声をテキストに変換する技術であり、音声信号の多様性と複雑さにより、現在の音声認識システムでは一定の制約(特定の場面でしか適用できない)でしか満足のいく性能が得られません。 自動音声認識の定義 自動音声認識テクノロジーの目標は、コンピューターが「[…]
オートエンコーダは、教師なし学習における効率的なエンコード、多くの場合次元削減に使用される人工ニューラル ネットワークです。 これは、データ圧縮および解凍機能が非可逆であり、サンプルから自動的に学習されるデータ圧縮アルゴリズムでもあります。ただし、オートエンコーダーが言及されるほとんどの場合、圧縮および解凍機能はニューラル ネットワークを通じて行われます。
人間の注意メカニズムは直感に基づいており、人間が限られたリソースを使用して、大量の情報から価値の高い情報を迅速に選別するための手段です。深層学習における注意メカニズムは人間の注意思考を利用しており、自然言語処理、画像分類、音声認識などのさまざまな種類のシナリオで広く使用されており、大きな成果を上げています。
AUC は、ROC 曲線と座標軸の下の面積として定義されます。ROC 曲線は y=x より上にあるため、AUC の値の範囲は 0.5 ~ 1 です。 AUC は、さまざまな分類モデルを比較する際のモデルの品質の指標として使用できます。その主な重要性は、AU […]
ヘッセ行列またはヘッセ行列とも呼ばれるヘッセ行列は、多変数実数値関数の 2 次偏導関数で構成される正方行列です。 これは、二次微分を多変量関数に一般化したもので、関数の極値と密接に関係しています。
アルファベータ枝刈りは、ミニマックス アルゴリズム検索ツリー内のノードの数を減らすために使用される検索アルゴリズムです。
Adaptive Resonance Theory (略して ART) とは、ニューラル ネットワークが環境と相互作用すると、環境情報のエンコードがニューラル ネットワーク内で自発的に生成され、自己組織化して環境理解のエンコードを生成できるという理論モデルを指します。 。
ヒルベルト空間は完全な内積空間であり、内積を含む完全なベクトル空間として理解できます。 ハルバート空間は有限次元ユークリッド空間に基づいており、実数と有限次元に限定されず、後者の一般化とみなすことができますが、完全ではありません。ユークリッド空間と同様に、ヒルベルト空間も内積空間であり、距離と角度を持っています […]
隠れマルコフ モデル (HMM) は、時系列に関する確率モデルです。隠れマルコフ連鎖によってランダムに生成された観測不可能な状態のランダム シーケンスを記述し、各状態から観測可能なランダム シーケンスを生成します。 隠れマルコフ モデルは、隠れた未知のパラメーターを持つマルコフ モデルを記述するために使用される統計モデルです。
隠れ層は、多段フィードフォワード ニューラル ネットワーク内の入力層と出力層を除いた層を指します。隠れ層は外部信号を直接受信せず、外部に直接信号を送信する必要があるだけです。データが非線形に分離されている場合。 隠れ層上のニューロンは、最大プーリング層や畳み込み層など、さまざまな形式をとることができ、すべて異なる数学関数を実行します。
ハード投票は、クラス ラベルを直接出力する投票方法で、主に分類機械学習アルゴリズムに使用されます。 投票方法は、アンサンブル学習における分類問題の組み合わせ戦略です。基本的な考え方は、アルゴリズム内で最も多くの出力を持つクラスを選択することです。等しい場合は昇順に進みます […]
独立同一分布 (IID) とは、確率変数のセット内の各変数の確率分布が同じであり、これらの確率変数が互いに独立していることを意味します。独立して同一に分布する確率変数のセットは、次のことを意味しません。サンプル空間内の各イベントの確率は同じです。たとえば、不均一なサイコロを振ることによって得られる一連の結果は、独立して同一に分布しますが、すべて […]
増分学習とは、新しいデータが追加されたときに、以前に学習した知識のほとんどを保持しながら、新しいサンプルから新しい知識を継続的に学習できることを意味します。 増分学習は人間の学習モデルに似ており、段階的な蓄積と更新のプロセスです。 従来の学習方法は、すべてのデータを準備するバッチ学習です […]
ナレッジ ベースは、関連分野の知識の収集、整理、抽出を容易にするための知識管理に使用される特別なデータベースです。ライブラリ内の知識は、問題を解決するために関連分野の知識を集めたものです。基本的な事実、ルールおよびその他の関連情報。 ナレッジベースは、構造化され、操作が簡単で、使いやすく、包括的なものです […]
K - 最近傍アルゴリズム KNN は、基本的な分類および回帰アルゴリズムであり、それ自体に最も近い K 点を使用して、分類されたデータの分類を決定するための投票を行います。 KNN の特徴 KNN は遅延学習に属します。KNN は計算量が高く、K の値が異なると分類結果も異なります。
JS ダイバージェンスは、2 つの確率分布の類似性を測定します。これは、KL ダイバージェンスの変形に基づいており、KL ダイバージェンスの非対称性の問題を解決します。一般に、JS の発散は対称であり、その値は 0 から 1 の間です。 定義は次のとおりです: KL 発散と JS 発散を測定するときに問題があります: 2 つの場合 […]
最小二乗回帰木は、一般的に使用される回帰木アルゴリズムです。 二乗誤差を最小限に抑えるには、各特徴の値を順番に走査し、現在考えられるセグメンテーション ポイントの誤差を計算し、最後にセグメンテーション 誤差が最小の点を選択して入力空間を 2 つの部分に分割する必要があります。 、セグメンテーションが終了するまで上記の手順を繰り返し、この方法ではカット […]
潜在ディリクレ分布 LDA は、ドキュメント セット内の各ドキュメントのトピックを確率分布の形式で表現できるトピック モデルであり、トレーニング中に手動でラベル付けされたトレーニング セットを必要としない教師なし学習アルゴリズムでもあります。ドキュメント セットを作成し、トピック K の数を指定します。さらに、トピックごとに […]
最小記述長は、最小記述長原則とも呼ばれ、データを保存するためのさまざまな仮説の中で、最も多くのデータ圧縮効果を生み出すことができる仮説が最良であることを意味します。 最小記述長の原則は、1978 年にヨルマ・リッサネンによって導入されたオッカムの剃刀の形式化された結果です。その主なポイントは次のとおりです。
メタ学習は、機械学習のサブフィールドであり、自動学習アルゴリズムが機械学習実験のメタデータに適用されます。 メタ学習の核心は「学習(トレーニング)」プロセスであり、ニューロンが新しいタスクに応じて自らを調整できるように、古い知識をどのように活用するかを研究することです。 概略図は次のとおりです。ニューラルネットワーク(青 ■ [ …]
最大プーリングは、最大値を使用してデータ量を削減する一般的なプーリング操作であり、入力画像をいくつかの長方形領域に分割し、各サブドメインの最大値を出力します。 現在、一般的に使用されているプーリング方法には、最大プーリングと平均プーリングが含まれます。これらは、上位隠れ層からの複雑な計算を軽減し、ターゲットから独立させることができます。
最大間隔とは、分類タスクにおいてトレーニング データの間隔が最大である状況を指します。この最大間隔を満たす超平面は、データを正のカテゴリと負のカテゴリに分割できます。このとき、意思決定の信頼度は最も高くなります。 サポート ベクター マシンには、ハード マージンの最大化とソフト マージンの最大化があり、どちらも最大のマージンを見つけるための戦略です。
マルコフランダムフィールドは、無向グラフによって記述されるモデルであり、各ノードは単一の変数または変数のグループに対応します。 マルコフ乱数場は、複数のデータ ポイント間で、2 つのポイント間には明確な前方、後方、および方向の関係がないことを記述します。ただし、2 つのポイントは相互に関係しています […]
自動要約は、元の文書の重要なポイントを含む要約を作成するために、ソフトウェアを使用してテキスト文書を短縮するプロセスであり、現在は機械学習とデータマイニングの分野の一部であり、その目的はデータのサブセットを見つけることです。関連する「情報」が含まれています。 自動要約には現在、抽出と抽出という 2 つの方法があります。抽出は元のテキストの単語やフレーズに基づいています。
自動音声認識技術は、人間の音声をテキストに変換する技術であり、音声信号の多様性と複雑さにより、現在の音声認識システムでは一定の制約(特定の場面でしか適用できない)でしか満足のいく性能が得られません。 自動音声認識の定義 自動音声認識テクノロジーの目標は、コンピューターが「[…]
オートエンコーダは、教師なし学習における効率的なエンコード、多くの場合次元削減に使用される人工ニューラル ネットワークです。 これは、データ圧縮および解凍機能が非可逆であり、サンプルから自動的に学習されるデータ圧縮アルゴリズムでもあります。ただし、オートエンコーダーが言及されるほとんどの場合、圧縮および解凍機能はニューラル ネットワークを通じて行われます。
人間の注意メカニズムは直感に基づいており、人間が限られたリソースを使用して、大量の情報から価値の高い情報を迅速に選別するための手段です。深層学習における注意メカニズムは人間の注意思考を利用しており、自然言語処理、画像分類、音声認識などのさまざまな種類のシナリオで広く使用されており、大きな成果を上げています。
AUC は、ROC 曲線と座標軸の下の面積として定義されます。ROC 曲線は y=x より上にあるため、AUC の値の範囲は 0.5 ~ 1 です。 AUC は、さまざまな分類モデルを比較する際のモデルの品質の指標として使用できます。その主な重要性は、AU […]
ヘッセ行列またはヘッセ行列とも呼ばれるヘッセ行列は、多変数実数値関数の 2 次偏導関数で構成される正方行列です。 これは、二次微分を多変量関数に一般化したもので、関数の極値と密接に関係しています。
アルファベータ枝刈りは、ミニマックス アルゴリズム検索ツリー内のノードの数を減らすために使用される検索アルゴリズムです。
Adaptive Resonance Theory (略して ART) とは、ニューラル ネットワークが環境と相互作用すると、環境情報のエンコードがニューラル ネットワーク内で自発的に生成され、自己組織化して環境理解のエンコードを生成できるという理論モデルを指します。 。