差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
dmb:2011:q4 [2012/01/30 10:32] – watalu | dmb:2011:q4 [不明な日付] (現在) – 外部編集 (不明な日付) 127.0.0.1 | ||
---|---|---|---|
行 383: | 行 383: | ||
</ | </ | ||
+ | === おまけ === | ||
+ | |||
+ | AdaBoostを適用するには、adaパッケージをインストールする。 | ||
+ | < | ||
+ | install.packages(c(" | ||
+ | </ | ||
+ | |||
+ | 決定木を弱学習機械として用いるには例えば、 | ||
+ | < | ||
+ | tic.ada <- ada(V86~., | ||
+ | data=tic.learn, | ||
+ | iter=100, | ||
+ | control=rpart.control(maxdepth=1, | ||
+ | </ | ||
+ | とする。rpart.controlの中身は、 | ||
+ | * maxdepth=1が1回だけ分岐せよ | ||
+ | * cp=-1は不純度によらず必ず分岐せよ | ||
+ | * minsplit=0は親ノードのレコード数が幾つでも必ず分岐せよ | ||
+ | と、必ず1段の決定木を学習で得ること、と指定されている。 | ||
+ | |||
+ | これでiterとmaxdepthを変えると、もしかして良い訪問案が学習できるかもしれない? | ||
+ | ただしこの二つのパラメータを大きくすると、計算時間が増大するので要注意。 | ||
+ | iterに比例し、2のmaxdepth乗にも比例して、増えていく。 | ||