多クラスSVM

についての論文を読む。
SVM基本的には2クラス分類器なので、多クラス分類は原理的には不可能である。
そこで、多クラスの分類にSVMを用いるには以下の二つを用いる。

  1. One-Versus-Rest(1-vs-R)
  2. One-Versus-One(1-vs-1)


1-vs-Rは一つのクラスと残りすべてのクラスのデータの分類器としてSVMを用いる。
なので、必要となるSVMは、Nクラス分類問題に対してはN個。
学習後のN個のSVMで最大の出力を示したものに分類。
分類そのものが複雑になるのと、データに偏りが生じやすい。


1-vs-1は2クラスの組み合わせを作り、それぞれを2クラス分類問題としてSVMを用いる。
なので、必要となるSVMは、Nクラス分類問題に対してはN(N-1)/2個。
学習後のSVMで出力を統合したり、多数決で分類。
分類そのものは単純であるが、必要となる分類気が多い。


読んだ論文では分割の部分は詳しく書かれていたけど、学習後の結果の統合と最終的な分類の決め方があいまいだった。
参考文献をたどろうとしたら、すべて有料だったorz
学校よ、けちるな!