Command Palette
Search for a command to run...
Wiki
機械学習用語集:主要なAIおよびML概念の定義と説明を探索
Search for a command to run...
機械学習用語集:主要なAIおよびML概念の定義と説明を探索
Fully Forward Mode (FFM) は、清華大学の Dai Qionghai 学者と Fang Lu 教授の研究チームによって 2024 年に提案された、光ニューラル ネットワークのトレーニング方法です。該当する論文は「完全前進モード列車 […]
Busy Beaver ゲームは、1962 年に数学者の Tibor Radó によって提起された理論的なコンピューター サイエンスの問題です。
RNN の動作原理は、隠れ層の状態を通じて以前のタイム ステップの情報を保存し、ネットワークの出力が現在の入力と以前の状態に依存するようにすることです。
ResNet は、ネットワーク内に残留接続を追加することで、ネットワークの深さが増すにつれて発生する勾配の消失と勾配の爆発の問題を効果的に解決します。
Adam は、一次勾配最適化のアルゴリズムであり、大規模なデータとパラメーターを扱う最適化問題に特に適しています。
GPT モデルのコア テクノロジーは、セルフ アテンション メカニズムを通じてコンテキスト情報を効果的にキャプチャする Transformer アーキテクチャです。
F 原理 (周波数原理) と呼ばれる周波数原理は、深層学習の分野における重要な概念であり、低周波数から高周波数まで目的関数に適合する傾向があるディープ ニューラル ネットワーク (DNN) の特性を説明します。トレーニングのプロセス。この原則は、上海交通大学の […]
パラメーターの凝集とは、ニューラル ネットワークのトレーニング中にモデル パラメーターが特定の値または方向に向かって集中する傾向がある現象を指します。
循環的複雑さは、プログラムの複雑さを測定するために使用されるソフトウェア メトリックです。
Dropout の中心となるアイデアは、モデルの過剰適合を防ぐために、トレーニング プロセス中にネットワーク内の一部のニューロンとその接続をランダムにドロップ (つまり、一時的に削除) することです。
グラフ アテンション ネットワーク (略して GAT) は、グラフ構造データ用に設計されたニューラル ネットワークで、2017 年に Petar Veličković と彼の同僚によって提案されました。関連する論文の成果は、「グラフ アテンション N [...]」です。
Message Passing Neural Networks (略して MPNN) は、2017 年に Gilmer らによって提案された、グラフ構造データを処理するためのニューラル ネットワーク フレームワークです。
Graph Convolutional Networks (GCN)、Kipf および Welling は、「Semi-Supervised Classificati [...]」というタイトルの論文を発表しました。
Gated Recurrent Unit (GRU) は、2014 年に Cho et al. によって提案されたリカレント ニューラル ネットワーク (RNN) の一種です。関連する論文の結果は、「ゲートの経験的評価」です。
AlexNet は、2012 年に Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton によって提案されたディープ畳み込みニューラル ネットワーク (CNN) であり、その年の ImageNet 画像分類コンテストで優勝しました。
CART デシジョン ツリーは、分類および回帰タスクに使用できるデシジョン ツリー アルゴリズムです。
勾配ブースティングは、複数の弱い予測モデル (通常はデシジョン ツリー) を組み合わせて強力な予測モデルを構築するアンサンブル学習アルゴリズムです。
LeNet-5 は、ディープ ラーニングと畳み込みニューラル ネットワークの分野における独創的な作品であり、畳み込み層、プーリング層、完全接続層など、現代のディープ ラーニングの多くの重要な概念の基礎を築きました。
適格性の問題は主に、変化する環境の中でアクションやイベントを正常に実行するために必要なすべての条件や要素を決定することに関係します。
ReAct は、推論とアクションの進歩を組み合わせて、言語モデルがさまざまな言語推論と意思決定タスクを解決できるようにする一般的なパラダイムを提案します。
Pre-training Once は、3 ブランチの自己教師ありトレーニング フレームワークで、各事前トレーニング ステップでトレーニング用にサブネットワークをランダムにサンプリングするための伸縮性のあるスチューデント ブランチを導入します。
FlexAttendant は、高解像度の視覚言語モデルの効率を向上させるために設計された柔軟なアテンション メカニズムです。
FlashAttention は、効率的でメモリに優しいアテンション アルゴリズムです。
コーザル アテンション (CATT) は、特に視覚言語タスクにおいて、因果推論を組み込むことによってモデルの解釈可能性とパフォーマンスを向上させる革新的なアテンション メカニズムです。このメカニズムは、オーストラリアの南洋理工大学とモナシュ大学の研究者によって20日に発見されました。
Fully Forward Mode (FFM) は、清華大学の Dai Qionghai 学者と Fang Lu 教授の研究チームによって 2024 年に提案された、光ニューラル ネットワークのトレーニング方法です。該当する論文は「完全前進モード列車 […]
Busy Beaver ゲームは、1962 年に数学者の Tibor Radó によって提起された理論的なコンピューター サイエンスの問題です。
RNN の動作原理は、隠れ層の状態を通じて以前のタイム ステップの情報を保存し、ネットワークの出力が現在の入力と以前の状態に依存するようにすることです。
ResNet は、ネットワーク内に残留接続を追加することで、ネットワークの深さが増すにつれて発生する勾配の消失と勾配の爆発の問題を効果的に解決します。
Adam は、一次勾配最適化のアルゴリズムであり、大規模なデータとパラメーターを扱う最適化問題に特に適しています。
GPT モデルのコア テクノロジーは、セルフ アテンション メカニズムを通じてコンテキスト情報を効果的にキャプチャする Transformer アーキテクチャです。
F 原理 (周波数原理) と呼ばれる周波数原理は、深層学習の分野における重要な概念であり、低周波数から高周波数まで目的関数に適合する傾向があるディープ ニューラル ネットワーク (DNN) の特性を説明します。トレーニングのプロセス。この原則は、上海交通大学の […]
パラメーターの凝集とは、ニューラル ネットワークのトレーニング中にモデル パラメーターが特定の値または方向に向かって集中する傾向がある現象を指します。
循環的複雑さは、プログラムの複雑さを測定するために使用されるソフトウェア メトリックです。
Dropout の中心となるアイデアは、モデルの過剰適合を防ぐために、トレーニング プロセス中にネットワーク内の一部のニューロンとその接続をランダムにドロップ (つまり、一時的に削除) することです。
グラフ アテンション ネットワーク (略して GAT) は、グラフ構造データ用に設計されたニューラル ネットワークで、2017 年に Petar Veličković と彼の同僚によって提案されました。関連する論文の成果は、「グラフ アテンション N [...]」です。
Message Passing Neural Networks (略して MPNN) は、2017 年に Gilmer らによって提案された、グラフ構造データを処理するためのニューラル ネットワーク フレームワークです。
Graph Convolutional Networks (GCN)、Kipf および Welling は、「Semi-Supervised Classificati [...]」というタイトルの論文を発表しました。
Gated Recurrent Unit (GRU) は、2014 年に Cho et al. によって提案されたリカレント ニューラル ネットワーク (RNN) の一種です。関連する論文の結果は、「ゲートの経験的評価」です。
AlexNet は、2012 年に Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton によって提案されたディープ畳み込みニューラル ネットワーク (CNN) であり、その年の ImageNet 画像分類コンテストで優勝しました。
CART デシジョン ツリーは、分類および回帰タスクに使用できるデシジョン ツリー アルゴリズムです。
勾配ブースティングは、複数の弱い予測モデル (通常はデシジョン ツリー) を組み合わせて強力な予測モデルを構築するアンサンブル学習アルゴリズムです。
LeNet-5 は、ディープ ラーニングと畳み込みニューラル ネットワークの分野における独創的な作品であり、畳み込み層、プーリング層、完全接続層など、現代のディープ ラーニングの多くの重要な概念の基礎を築きました。
適格性の問題は主に、変化する環境の中でアクションやイベントを正常に実行するために必要なすべての条件や要素を決定することに関係します。
ReAct は、推論とアクションの進歩を組み合わせて、言語モデルがさまざまな言語推論と意思決定タスクを解決できるようにする一般的なパラダイムを提案します。
Pre-training Once は、3 ブランチの自己教師ありトレーニング フレームワークで、各事前トレーニング ステップでトレーニング用にサブネットワークをランダムにサンプリングするための伸縮性のあるスチューデント ブランチを導入します。
FlexAttendant は、高解像度の視覚言語モデルの効率を向上させるために設計された柔軟なアテンション メカニズムです。
FlashAttention は、効率的でメモリに優しいアテンション アルゴリズムです。
コーザル アテンション (CATT) は、特に視覚言語タスクにおいて、因果推論を組み込むことによってモデルの解釈可能性とパフォーマンスを向上させる革新的なアテンション メカニズムです。このメカニズムは、オーストラリアの南洋理工大学とモナシュ大学の研究者によって20日に発見されました。