ロジスティック回帰分析

ロジスティック回帰分析を検索したら、わかりやすい説明がなかったので、書いてみる。
ロジスティック回帰分析とは
被説明変数(Y)を説明変数(Xi)で回帰分析する。被説明変数は従属変数、説明変数は独立変数ともいう。
Z=a0+ΣaiXiとしたとき、推定式は、Y=1/(1+exp(Z))+errとなる。これを最小二乗法で、Σerr^2を最小になるようにすれば係数aiが求められる。(n次元非線形最適化)

サポートベクターマシン(SVM)でも、トレーニングデータから、n次元空間で、Yes/No(1または0)の判定ができる。一般的には、ロジスティック回帰分析よりSVMの方が精度がよいだろう。しかし、サポートベクターマシンでの分割超平面の法線ベクトルを利用して、ロジスティック回帰分析を行えば、01ではなく、確率を出すことができる。従って、誤り率を考慮した判定が可能になる。