差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
dmb:2011:q4 [2012/01/30 10:32] wataludmb:2011:q4 [不明な日付] (現在) – 外部編集 (不明な日付) 127.0.0.1
行 383: 行 383:
 </code> </code>
  
 +=== おまけ ===
 +
 +AdaBoostを適用するには、adaパッケージをインストールする。
 +<code>
 +install.packages(c("ada"), dependencies=TRUE)
 +</code>
 +
 +決定木を弱学習機械として用いるには例えば、
 +<code>
 +tic.ada <- ada(V86~., 
 +  data=tic.learn, 
 +  iter=100, 
 +  control=rpart.control(maxdepth=1, cp=-1, minsplit=0))
 +</code>
 +とする。rpart.controlの中身は、
 +  * maxdepth=1が1回だけ分岐せよ
 +  * cp=-1は不純度によらず必ず分岐せよ
 +  * minsplit=0は親ノードのレコード数が幾つでも必ず分岐せよ
 +と、必ず1段の決定木を学習で得ること、と指定されている。
 +
 +これでiterとmaxdepthを変えると、もしかして良い訪問案が学習できるかもしれない?
 +ただしこの二つのパラメータを大きくすると、計算時間が増大するので要注意。
 +iterに比例し、2のmaxdepth乗にも比例して、増えていく。