Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
シーケンス推奨システムは、重要なタイプの推奨システムです。その主なタスクは、ユーザーの過去の行動シーケンスに基づいてユーザーの次の行動を予測することです。
R-MFDN は、クロスモーダル対比学習損失関数とアイデンティティ駆動型対比学習損失関数を通じて、偽のコンテンツに対するモデルの感度を強化します。
カレル パズルは、指示によってシミュレートされた環境でロボットの動作を制御する一連の問題です。
Fully Forward Mode (FFM) は、清華大学の Dai Qionghai 学者と Fang Lu 教授の研究チームによって 2024 年に提案された、光ニューラル ネットワークのトレーニング方法です。該当する論文は「完全前進モード列車 […]
Busy Beaver ゲームは、1962 年に数学者の Tibor Radó によって提起された理論的なコンピューター サイエンスの問題です。
RNN の動作原理は、隠れ層の状態を通じて以前のタイム ステップの情報を保存し、ネットワークの出力が現在の入力と以前の状態に依存するようにすることです。
ResNet は、ネットワーク内に残留接続を追加することで、ネットワークの深さが増すにつれて発生する勾配の消失と勾配の爆発の問題を効果的に解決します。
Adam は、一次勾配最適化のアルゴリズムであり、大規模なデータとパラメーターを扱う最適化問題に特に適しています。
GPT モデルのコア テクノロジーは、セルフ アテンション メカニズムを通じてコンテキスト情報を効果的にキャプチャする Transformer アーキテクチャです。
F 原理 (周波数原理) と呼ばれる周波数原理は、深層学習の分野における重要な概念であり、低周波数から高周波数まで目的関数に適合する傾向があるディープ ニューラル ネットワーク (DNN) の特性を説明します。トレーニングのプロセス。この原則は、上海交通大学の […]
パラメーターの凝集とは、ニューラル ネットワークのトレーニング中にモデル パラメーターが特定の値または方向に向かって集中する傾向がある現象を指します。
循環的複雑さは、プログラムの複雑さを測定するために使用されるソフトウェア メトリックです。
Dropout の中心となるアイデアは、モデルの過剰適合を防ぐために、トレーニング プロセス中にネットワーク内の一部のニューロンとその接続をランダムにドロップ (つまり、一時的に削除) することです。
グラフ アテンション ネットワーク (略して GAT) は、グラフ構造データ用に設計されたニューラル ネットワークで、2017 年に Petar Veličković と彼の同僚によって提案されました。関連する論文の成果は、「グラフ アテンション N [...]」です。
Message Passing Neural Networks (略して MPNN) は、2017 年に Gilmer らによって提案された、グラフ構造データを処理するためのニューラル ネットワーク フレームワークです。
Graph Convolutional Networks (GCN)、Kipf および Welling は、「Semi-Supervised Classificati [...]」というタイトルの論文を発表しました。
Gated Recurrent Unit (GRU) は、2014 年に Cho et al. によって提案されたリカレント ニューラル ネットワーク (RNN) の一種です。関連する論文の結果は、「ゲートの経験的評価」です。
AlexNet は、2012 年に Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton によって提案されたディープ畳み込みニューラル ネットワーク (CNN) であり、その年の ImageNet 画像分類コンテストで優勝しました。
CART デシジョン ツリーは、分類および回帰タスクに使用できるデシジョン ツリー アルゴリズムです。
勾配ブースティングは、複数の弱い予測モデル (通常はデシジョン ツリー) を組み合わせて強力な予測モデルを構築するアンサンブル学習アルゴリズムです。
LeNet-5 は、ディープ ラーニングと畳み込みニューラル ネットワークの分野における独創的な作品であり、畳み込み層、プーリング層、完全接続層など、現代のディープ ラーニングの多くの重要な概念の基礎を築きました。
適格性の問題は主に、変化する環境の中でアクションやイベントを正常に実行するために必要なすべての条件や要素を決定することに関係します。
ReAct は、推論とアクションの進歩を組み合わせて、言語モデルがさまざまな言語推論と意思決定タスクを解決できるようにする一般的なパラダイムを提案します。
Pre-training Once は、3 ブランチの自己教師ありトレーニング フレームワークで、各事前トレーニング ステップでトレーニング用にサブネットワークをランダムにサンプリングするための伸縮性のあるスチューデント ブランチを導入します。
シーケンス推奨システムは、重要なタイプの推奨システムです。その主なタスクは、ユーザーの過去の行動シーケンスに基づいてユーザーの次の行動を予測することです。
R-MFDN は、クロスモーダル対比学習損失関数とアイデンティティ駆動型対比学習損失関数を通じて、偽のコンテンツに対するモデルの感度を強化します。
カレル パズルは、指示によってシミュレートされた環境でロボットの動作を制御する一連の問題です。
Fully Forward Mode (FFM) は、清華大学の Dai Qionghai 学者と Fang Lu 教授の研究チームによって 2024 年に提案された、光ニューラル ネットワークのトレーニング方法です。該当する論文は「完全前進モード列車 […]
Busy Beaver ゲームは、1962 年に数学者の Tibor Radó によって提起された理論的なコンピューター サイエンスの問題です。
RNN の動作原理は、隠れ層の状態を通じて以前のタイム ステップの情報を保存し、ネットワークの出力が現在の入力と以前の状態に依存するようにすることです。
ResNet は、ネットワーク内に残留接続を追加することで、ネットワークの深さが増すにつれて発生する勾配の消失と勾配の爆発の問題を効果的に解決します。
Adam は、一次勾配最適化のアルゴリズムであり、大規模なデータとパラメーターを扱う最適化問題に特に適しています。
GPT モデルのコア テクノロジーは、セルフ アテンション メカニズムを通じてコンテキスト情報を効果的にキャプチャする Transformer アーキテクチャです。
F 原理 (周波数原理) と呼ばれる周波数原理は、深層学習の分野における重要な概念であり、低周波数から高周波数まで目的関数に適合する傾向があるディープ ニューラル ネットワーク (DNN) の特性を説明します。トレーニングのプロセス。この原則は、上海交通大学の […]
パラメーターの凝集とは、ニューラル ネットワークのトレーニング中にモデル パラメーターが特定の値または方向に向かって集中する傾向がある現象を指します。
循環的複雑さは、プログラムの複雑さを測定するために使用されるソフトウェア メトリックです。
Dropout の中心となるアイデアは、モデルの過剰適合を防ぐために、トレーニング プロセス中にネットワーク内の一部のニューロンとその接続をランダムにドロップ (つまり、一時的に削除) することです。
グラフ アテンション ネットワーク (略して GAT) は、グラフ構造データ用に設計されたニューラル ネットワークで、2017 年に Petar Veličković と彼の同僚によって提案されました。関連する論文の成果は、「グラフ アテンション N [...]」です。
Message Passing Neural Networks (略して MPNN) は、2017 年に Gilmer らによって提案された、グラフ構造データを処理するためのニューラル ネットワーク フレームワークです。
Graph Convolutional Networks (GCN)、Kipf および Welling は、「Semi-Supervised Classificati [...]」というタイトルの論文を発表しました。
Gated Recurrent Unit (GRU) は、2014 年に Cho et al. によって提案されたリカレント ニューラル ネットワーク (RNN) の一種です。関連する論文の結果は、「ゲートの経験的評価」です。
AlexNet は、2012 年に Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton によって提案されたディープ畳み込みニューラル ネットワーク (CNN) であり、その年の ImageNet 画像分類コンテストで優勝しました。
CART デシジョン ツリーは、分類および回帰タスクに使用できるデシジョン ツリー アルゴリズムです。
勾配ブースティングは、複数の弱い予測モデル (通常はデシジョン ツリー) を組み合わせて強力な予測モデルを構築するアンサンブル学習アルゴリズムです。
LeNet-5 は、ディープ ラーニングと畳み込みニューラル ネットワークの分野における独創的な作品であり、畳み込み層、プーリング層、完全接続層など、現代のディープ ラーニングの多くの重要な概念の基礎を築きました。
適格性の問題は主に、変化する環境の中でアクションやイベントを正常に実行するために必要なすべての条件や要素を決定することに関係します。
ReAct は、推論とアクションの進歩を組み合わせて、言語モデルがさまざまな言語推論と意思決定タスクを解決できるようにする一般的なパラダイムを提案します。
Pre-training Once は、3 ブランチの自己教師ありトレーニング フレームワークで、各事前トレーニング ステップでトレーニング用にサブネットワークをランダムにサンプリングするための伸縮性のあるスチューデント ブランチを導入します。