差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
dmb:2011:q1 [2011/11/07 09:41] – [コード] watalu | dmb:2011:q1 [不明な日付] (現在) – 外部編集 (不明な日付) 127.0.0.1 | ||
---|---|---|---|
行 1: | 行 1: | ||
- | ==== 学習誤差と予測誤差 ==== | + | ==== 課題# |
+ | |||
+ | - 初稿 2011.11.07 | ||
+ | - 第二稿 2011.11.10 | ||
+ | |||
+ | === はじめに === | ||
+ | |||
+ | 今回は比較的単純な課題です. | ||
+ | |||
+ | - 線形学習機械の最小二乗学習とk最近接機械の誤判別率を,シミュレーションを用いて比較しなさい. | ||
+ | - 今回のシミュレーション設定に対して,最適なkを決めてみなさい. | ||
+ | - 学習用データによる誤判別率の推定と検証ゥデータによる誤判別率の推定を比較して考察しなさい. | ||
+ | |||
+ | 〆切は来週の月曜日の2限が始まる時刻まで,とします.Word形式のレポートファイルの送付先は,[[mailto: | ||
+ | |||
+ | コードは,解説付きのコードの一番下に「貼り付け用」を別に用意したので,そちらを使うと良いです.いきなり全部をコピーするのでなく,四角囲みごとに. | ||
=== コード === | === コード === | ||
+ | < | ||
+ | # データを発生させる関数 | ||
+ | generate.data <- function(n, p, k, setting) { | ||
+ | # 最初に空の変数を作るとあとのコードが便利 | ||
+ | X <- NULL | ||
+ | y <- NULL | ||
+ | | ||
+ | if( setting==1 ) { | ||
+ | X <- rbind(X, | ||
+ | | ||
+ | | ||
+ | y <- rbind(y, | ||
+ | | ||
+ | X <- rbind(X, | ||
+ | | ||
+ | | ||
+ | y <- rbind(y, | ||
+ | | ||
+ | Data <- cbind(X,y) | ||
+ | colnames(Data) <- c(" | ||
+ | # 最後にデータのランダムな並べ替え | ||
+ | Data.ret <- Data[sample(c(1: | ||
+ | return(Data.ret) | ||
+ | } | ||
+ | } | ||
+ | |||
+ | # データセットを最初のn.learnレコードを学習用に,残りを検証用に,分割する関数 | ||
+ | split.data <- function(dataset, | ||
+ | data.learn <- dataset[c(1: | ||
+ | data.eval <- dataset[-c(1: | ||
+ | return(list(learn=data.learn, | ||
+ | } | ||
+ | </ | ||
+ | |||
+ | < | ||
+ | # シミュレーション回数 | ||
+ | m <- 1000 | ||
+ | # データの変数の次元 (今回は未使用の変数) | ||
+ | p <- 2 | ||
+ | # クラス数 (これも今回は未使用の変数) | ||
+ | k <- 2 | ||
+ | # 学習用データのレコード数 | ||
+ | n.learn <- 50 | ||
+ | # 検証用データのレコード数 | ||
+ | n.eval <- 20 | ||
+ | # サンプル数 | ||
+ | n <- n.learn + n.eval | ||
+ | </ | ||
+ | |||
+ | < | ||
+ | # {}内に書かれたシミュレーションをm回繰り返す. | ||
+ | error.rate.eval <- NULL | ||
+ | error.rate.learn <- NULL | ||
+ | for( i in c(1:m) ) { | ||
+ | # データの生成と分割 | ||
+ | data.gen <- generate.data(n, | ||
+ | data.split <- split.data(data.gen, | ||
+ | data.learn <- data.frame(data.split$learn) | ||
+ | data.eval <- data.frame(data.split$eval) | ||
+ | # 準備 | ||
+ | error.temp.learn <- NULL | ||
+ | error.temp.eval <- NULL | ||
+ | # 各種学習機械の適用 | ||
+ | # 線形学習機械の最小二乗学習 | ||
+ | data.lm <- lm(y~X.1+X.2, | ||
+ | data.fit <- fitted(data.lm) | ||
+ | data.pred <- predict(data.lm, | ||
+ | # print(data.eval$y-data.pred) | ||
+ | # print(sum(abs(data.eval$y-data.pred)< | ||
+ | # print(data.learn$y-data.fit) | ||
+ | # print(sum(abs(data.learn$y-data.fit)< | ||
+ | # 学習用データの当てはめ誤差 | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | 1-sum(abs(data.learn$y-data.fit)< | ||
+ | # 検証用データの当てはめ誤差 | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-data.pred)< | ||
+ | # k-最近接機械でk=1 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=1, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=1, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=3 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=3, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=3, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=5 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=5, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=5, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=7 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=7, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=7, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=9 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=9, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=9, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=15 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=15, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=15, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=21 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=21, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=21, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=25 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=31, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=31, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=51 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=51, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=51, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=75 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=75, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | k=75, prob=FALSE) | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=101 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=101, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=201 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=201, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # k-最近接機械でk=301 | ||
+ | data.fit <- knn(data.learn[, | ||
+ | k=301, prob=FALSE) | ||
+ | data.pred <- knn(data.learn[, | ||
+ | | ||
+ | error.temp.learn <- append(error.temp.learn, | ||
+ | | ||
+ | error.temp.eval <- append(error.temp.eval, | ||
+ | 1-sum(abs(data.eval$y-(as.numeric(data.pred)-1))< | ||
+ | |||
+ | # 上の結果の回収 | ||
+ | error.rate.learn <- rbind(error.rate.learn, | ||
+ | error.rate.eval <- rbind(error.rate.eval, | ||
+ | } | ||
+ | |||
+ | # 最後に少しお化粧 | ||
+ | colnames(error.rate.learn) <- c(" | ||
+ | " | ||
+ | " | ||
+ | rownames(error.rate.learn) <- c(1:m) | ||
+ | colnames(error.rate.eval) <- c(" | ||
+ | " | ||
+ | " | ||
+ | rownames(error.rate.eval) <- c(1:m) | ||
+ | </ | ||
+ | |||
+ | |||
+ | 学習用データによる誤判別率の推定値の標本分布を要約する.次の3行を実施すれば,箱ひげ図が描けて,各学習機械の誤判別率の平均と標準偏差も算出される. | ||
+ | 箱ひげ図については,次項参照のこと. | ||
+ | < | ||
+ | boxplot(error.rate.learn) | ||
+ | apply(error.rate.learn, | ||
+ | sqrt(apply(error.rate.learn, | ||
+ | </ | ||
+ | |||
+ | 検証用データにおける誤判別率についても,同様の次の3行で要約できる. | ||
+ | < | ||
+ | boxplot(error.rate.eval) | ||
+ | apply(error.rate.eval, | ||
+ | sqrt(apply(error.rate.eval, | ||
+ | </ | ||
== 貼り付け用 == | == 貼り付け用 == | ||
行 13: | 行 266: | ||
if( setting==1 ) { | if( setting==1 ) { | ||
X <- rbind(X, | X <- rbind(X, | ||
- | cbind(rnorm(ceiling(n/ | + | cbind(rnorm(ceiling(n/ |
- | rnorm(ceiling(n/ | + | |
y <- rbind(y, | y <- rbind(y, | ||
- | as.matrix(array(0, | + | as.matrix(array(0, |
X <- rbind(X, | X <- rbind(X, | ||
- | cbind(rnorm(floor(n/ | + | cbind(rnorm(floor(n/ |
- | rnorm(floor(n/ | + | |
y <- rbind(y, | y <- rbind(y, | ||
- | as.matrix(array(1, | + | as.matrix(array(1, |
Data <- cbind(X,y) | Data <- cbind(X,y) | ||
colnames(Data) <- c(" | colnames(Data) <- c(" | ||
行 64: | 行 317: | ||
data.fit <- fitted(data.lm) | data.fit <- fitted(data.lm) | ||
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-data.fit)< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:1 | # knn:1 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=1, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=1, prob=FALSE) | + | k=1, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:3 | # knn:3 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=3, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=3, prob=FALSE) | + | k=3, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:5 | # knn:5 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=5, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=5, prob=FALSE) | + | k=5, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:7 | # knn:7 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=7, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=7, prob=FALSE) | + | k=7, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:9 | # knn:9 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=9, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=9, prob=FALSE) | + | k=9, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:15 | # knn:15 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=15, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=15, prob=FALSE) | + | k=15, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:21 | # knn:21 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
- | k=21, prob=FALSE) | + | |
data.pred <- knn(data.learn[, | data.pred <- knn(data.learn[, | ||
- | k=21, prob=FALSE) | + | k=21, prob=FALSE) |
error.temp.learn <- append(error.temp.learn, | error.temp.learn <- append(error.temp.learn, | ||
- | | + | 1-sum(abs(data.learn$y-(as.numeric(data.fit)-1))< |
error.temp.eval <- append(error.temp.eval, | error.temp.eval <- append(error.temp.eval, | ||
- | | + | |
# knn:25 | # knn:25 | ||
data.fit <- knn(data.learn[, | data.fit <- knn(data.learn[, | ||
行 199: | 行 452: | ||
</ | </ | ||
- | 結果のグラフ | ||
< | < | ||
boxplot(error.rate.learn) | boxplot(error.rate.learn) | ||
+ | apply(error.rate.learn, | ||
+ | sqrt(apply(error.rate.learn, | ||
</ | </ | ||
- | 結果のグラフ | + | |
< | < | ||
boxplot(error.rate.eval) | boxplot(error.rate.eval) | ||
+ | apply(error.rate.eval, | ||
+ | sqrt(apply(error.rate.eval, | ||
+ | </ | ||
+ | |||
+ | === 解説 === | ||
+ | |||
+ | == 箱ひげ図 == | ||
+ | |||
+ | 箱ひげ図は,一次元データの打点の要約方法である.ヒストグラムの代替で,対称性と裾の重さを図示する. | ||
+ | 下図はデータの散らばり具合,ヒストグラム,箱ひげ図の対応例である | ||
+ | |||
+ | {{ : | ||
+ | |||
+ | |||
+ | この図の場合,箱ひげ図を横に寝かせて描いたので,右方向を上,左方向を下と思って欲しい. | ||
+ | |||
+ | |ひげの上にある点|1.5倍の範囲を超えたデータ| | ||
+ | |長方形の上に伸びたひげの横線|箱の長さの1.5倍の範囲にあるデータの最大値| | ||
+ | |長方形の上辺|データを小さい順に並べたときの「上側1/ | ||
+ | |長方形中央の横線|データを小さい順に並べたときの「真ん中」(50%点)の値| | ||
+ | |長方形の下辺|データを小さい順に並べたときの「下側1/ | ||
+ | |長方形の下に伸びたひげの横線|箱の長さの1.5倍の範囲にあるデータの最小値| | ||
+ | |ひげの下にある点|1.5倍の範囲を超えたデータ| | ||
+ | |箱の長さ|上辺-下辺| | ||
+ | |||
+ | 上の図の作図に用いたコード. | ||
+ | < | ||
+ | X <- rgamma(100, shape=2) | ||
+ | jpeg(" | ||
+ | par(mfrow=c(3, | ||
+ | plot(cbind(X, | ||
+ | hist(X, xlim=c(0, | ||
+ | boxplot(X, | ||
+ | dev.off() | ||
+ | </ | ||
+ | |||
+ | == ヒストグラムを並べる場合 == | ||
+ | |||
+ | グラフの数が多いので,お勧めはしないが,箱ひげ図を描く代わりに,ヒストグラムを並べると,こうなる. | ||
+ | |||
+ | 学習用データの誤判別率のグラフを並べた例. | ||
+ | |||
+ | {{ : | ||
+ | |||
+ | < | ||
+ | jpeg(" | ||
+ | par(cex=0.3) | ||
+ | par(mfrow=c(14, | ||
+ | for( i in c(1:14) ) { | ||
+ | hist(error.rate.learn[, | ||
+ | | ||
+ | | ||
+ | } | ||
+ | dev.off() | ||
+ | </ | ||
+ | |||
+ | |||
+ | こちらは検証用データにおける誤判別率のグラフを並べた例. | ||
+ | |||
+ | {{ : | ||
+ | |||
+ | < | ||
+ | jpeg(" | ||
+ | par(cex=0.3) | ||
+ | par(mfrow=c(14, | ||
+ | for( i in c(1:14) ) { | ||
+ | hist(error.rate.eval[, | ||
+ | | ||
+ | | ||
+ | } | ||
+ | dev.off() | ||
</ | </ | ||