Command Palette
Search for a command to run...
百科事典
我々は数百の関連エントリーを収集し、「人工知能」を理解するための数百のAI関連エントリー
Search for a command to run...
我々は数百の関連エントリーを収集し、「人工知能」を理解するための数百のAI関連エントリー
事前枝刈りは枝刈りアルゴリズムの一種です。これは、決定木が生成される前の枝刈り操作を指します。
正定行列は、すべての固有値が 0 より大きい対称行列です。
肯定的なクラスは、二値分類問題で期待されるクラスを指します。該当するカテゴリーをネガティブクラス(ポジティブクラス)といいます。
相対多数決は、一般的に言えば、少数派が多数派に従うという最も単純な投票方法です。
パフォーマンス メトリクスは、モデルの汎化能力を測定するために使用される評価基準です。
順序属性は、取り得る値に意味のある順序またはランキングがある属性ですが、連続する値の違いは不明です。順序があり、サイズの違いがあります。
1 回限りの学習とは、1 回のデモンストレーションの後、新しい環境シナリオに関する事前知識がなくても、異なる環境で繰り返し動作する機械の能力を指します。
戦略が異なるということは、新しいサンプルを生成するために使用される戦略が、ネットワークがパラメーターを更新するときに使用される戦略と異なることを意味します。
ノイズ対比推定 (NCE) は、Gutmann と Hyvarynen によって提案された統計モデル推定手法であり、ニューラル ネットワークの複雑な計算問題を解決するために使用され、画像処理や自然言語処理で広く使用されています。
フリーランチ (NFL の定理) は存在しません。これは、あらゆる分野で最も正確な学習者を生成できる学習アルゴリズムはないことを意味します。つまり、特定のドメインの問題については、すべてのアルゴリズムの期待されるパフォーマンスは同じです。
ニュートン法は、ニュートン・ラフソン法としても知られ、実数領域および複素数領域で方程式を近似的に解く方法です。関数 f (x) のテイラー級数の最初のいくつかの項を使用して、方程式 f (y) = 0 の根を求めます。
ネガティブクラスとは、二項分類におけるポジティブクラスの反対のカテゴリーを指します。
自然言語処理は、人工知能、言語学、コンピューター、その他の分野が関与する学際的な主題です。コンピューターに自然言語を処理させる問題を検討します。
教師なし学習は、トレーニング セットに対応するカテゴリ識別子を提供しない学習方法です。
サンプル空間は、実験またはランダム試験で考えられるすべての結果のセットであり、ランダム試験で考えられるそれぞれの結果はサンプル点と呼ばれます。
自己組織化マップ (SOM) または自己組織化特徴マップ (SOFM) は、教師なし学習を使用してトレーニング サンプルの入力空間の低次元 (通常は 2 次元) の離散化表現を生成する人工ニューラル ネットワーク (ANN) です。 。
リカレント ニューラル ネットワークは、シーケンス データを処理するために使用されるネットワーク モデルです。これは、シーケンスの現在の出力が前の出力に関連していることを意味します。
線形整流関数としても知られるリビジョン線形ユニット (ReLU) は、人工ニューラル ネットワークで一般的に使用される活性化関数であり、通常はランプ関数とその変形によって表される非線形関数を指します。
自然言語理解 (NLU) は、文法、意味論、および語用論の分析を通じて自然言語の意味表現を取得するテクノロジーであり、自然言語処理の重要なステップです。
自然言語生成 (NLG) は、コンピューターに人間のような表現と書き込み機能を持たせる技術の研究です。つまり、いくつかの重要な情報とその機械内部の表現に基づいた計画プロセスを通じて、高品質の自然言語テキストを自動的に生成できます。
ナッシュ均衡またはナッシュ均衡は、非協力的ゲーム均衡としても知られ、ゲーム理論における重要な戦略の組み合わせであり、経済学者ジョン・ナッシュにちなんで名付けられました。
「固有名認識」としても知られる固有表現認識 (NER) は、テキスト内の固有表現をコンピューターで認識するプロセスを指します。これは基本的な NLP (自然言語処理) タスクです。