ナイーブ・ベイズ確率理論に基づいた分類アルゴリズムであり、ベイズ公式に従って各カテゴリの確率を予測して分類できます。解決策は、カテゴリ内の各特徴の発生確率に基づいて、分類対象の項目をすべての特徴の発生確率が最も高いカテゴリに分類することです。
ナイーブ ベイジアン プロパティ
Naive Bayes を使用するための前提条件は、分類される特徴が同等に重要であり、互いに相関関係がないことです。
アドバンテージ:
- 学習と予測の効率が高く、分類効率が安定しており、実装が簡単です。
- データが少なく、複数分類の問題を処理できる場合でも効果的です。
- 独立変数の条件が当てはまる限り、単純ベイズ分類器のパフォーマンスが最高になります。
- 他の分類方法に比べてエラー率が最も低くなります。
欠点:
- 分類効果は特に良好ではありません。
- 特徴独立性の仮定により単純ベイズは単純になりますが、ある程度の分類精度が犠牲になります。
- 実際には、独立条件の仮定を満たすことは困難です。
- カテゴリカル変数のカテゴリがトレーニング データ セットで常に観察されるわけではない場合、予測は不可能になります。
アプリケーションのシナリオと実践
ナイーブ ベイズは通常、ベルヌーイ モデルに基づく方法と多項式モデルに基づく方法の 2 つの方法で実装されます。
Naive Bayes の主な用途は次のとおりです。
- リアルタイム予測
- マルチクラス予測
- テキスト分類/スパムフィルタリング/感情分析
- 推薦制度
ナイーブベイズの考え方
Naive Bayes 法で行う必要があるのは、y が x に属するカテゴリを計算することです。そのプロセスは次のとおりです。
-
は分類対象の項目であり、各
は
の固有の属性です。 - 分類されるカテゴリはセット
;
が
に属する確率を計算します:
;- $latex の場合 {P{ \left( {y\mathop{{}}\nolimits_{{k}} \left| x\right. } \right) }\text{ }=\text{ }max{ \left\{ {P{ \left( {y\mathop{{}}\nolimits_{{1}} \left| x\right. } \right) },\text{ }P{ \left( {y\mathop{{}}\nolimits_{{2}} \left| x\right. } \right) },\text{ }…,\text{ }P{ \left( {y\mathop{{} }\nolimits_{{n}} \left| x\right. } \right) }} \right\} }}$、次に
に分類されます。
関連語: 単純ベイズ分類器