回帰
戻るこれは、主に数値連続確率変数の予測とモデル化に使用される教師あり学習アルゴリズムです。これは、入力と出力の関係を定義します。入力は既存の知識であり、出力は予測値です。
回帰の目的は、最適なフィッティング ラインを取得することです。
前提と内容
- データ分析では、通常、データに対していくつかの条件付きの仮定が行われます。
- 分散の均一性
- 線形関係
- 効果は累積される
- 測定誤差のない変数
- 変数は多変量正規分布に従います
- 観察の独立性
- モデル完成
- 誤差項は独立しており、(0, 1) 正規分布に従います。
回帰分析の主な内容
- 一連のデータから始めて、特定の変数間の定量的関係を決定します。つまり、数学モデルを確立し、その中の未知のパラメーターを推定します。パラメータを推定する一般的な方法は最小二乗法です。
- これらの関係の信頼性をテストします。
- 多くの独立変数が従属変数に共同して影響を与える関係では、どの独立変数が重大な影響を及ぼし、どの独立変数が重大な影響を及ぼさないかを判断し、重大な影響を与える独立変数をモデルに追加し、それらを削除します。影響が小さい場合は、通常、段階的回帰、前方回帰、後方回帰などの方法が使用されます。
- 必要な関係を使用して、特定の生産プロセスを予測または制御します。回帰分析の応用範囲は非常に広く、統計ソフトウェア パッケージを使用すると、さまざまな回帰法の計算が非常に便利になります。
回帰分析研究の主な課題
- Y と X の間の定量的な関係式 (回帰式と呼ばれます) を決定します。
- 得られた回帰式の信頼性をテストします。
- 独立変数 X が従属変数 Y に影響を与えるかどうかを判断します。
- 得られた回帰式を予測や制御に利用します。
回帰分析の手順
- 変数の決定: 具体的な予測対象を明確にし、従属変数を決定します。
- 予測モデルの構築: 独立変数と従属変数の過去の統計データに基づいて計算し、これに基づいて回帰分析式、つまり回帰分析予測モデルを構築します。
- 相関分析を実行する: 回帰分析は、原因要因と予測対象の数学的統計分析です。確立された回帰式は、独立変数と従属変数の間に実際に何らかの関係がある場合にのみ意味を持ちます。なぜなら
- 予測誤差の計算: 回帰予測モデルが実際の予測に使用できるかどうかは、回帰予測モデルのテストと予測誤差の計算によって異なります。
- 予測値の決定: 回帰予測モデルを使用して予測値を計算し、予測値の包括的な分析を実行して、最終的な予測値を決定します。
回帰分析手法
- 線形回帰 (正則化): 線形回帰は、回帰タスクを処理するために最も一般的に使用されるアルゴリズムの 1 つであり、このアルゴリズムは、超平面を使用してデータ セットを近似することを想定しています。
- 回帰木 (アンサンブル法): 回帰木は、データセットを異なるブランチに繰り返し分割することによって階層学習を実現します。分割の基準は、各分離の情報利得を最大化することです。
他の問題への回帰リンク
- 入力変数と出力変数の両方が連続変数である場合の予測問題は回帰問題です。
- 出力変数が限られた数の離散変数である場合の予測問題は、分類問題になります。
- 入力変数と出力変数の両方が変数シーケンスである場合の予測問題は、ラベル付け問題になります。