少々理解した

前回、適当なことを吹いてしまった。
今日少しSVMを調べていて理解が深まった。

得られているのは識別関数に対してサンプルが超平面からどの位置にあるか、ということのようだ。
正確にいうとf(x) = (W^T X) + bW^T Xの部分が得られている。
マージンではなく、超平面からのサンプルの位置になる。
負になるのは-1のクラスの側に分類されているから。
で、マージンが欲しいのだが、これではだめだな。


しかし、考え方によっては、今まで正しいor正しくないでしか判断できていなかったSVMが正しさに尺度を持つことができたと考えることができる。
分類が正しく行われていても、実は超平面ぎりぎりだった、と言う場合もある。
分類が正しく行われていなくても、惜しかった、と言う場合もある。
従来よりより細かくサブセットを評価することができる可能性がある。
実験する価値はあるよね。


学習に用いるサブセットを、学習の段階のマージンで評価するか、実際にテストデータ(未知データ)を突っ込んでみた時の分類の様子で判断するかの違いだな。