[過去ログ] 【統計分析】機械学習・データマイニング22 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
359(1): (ワッチョイ e1da-h/iE) 2019/01/29(火)13:44 ID:qfbmFsib0(1/2) AAS
次のAIブームに期待しましょう
360(1): (ワッチョイ 9901-ZgQr) 2019/01/29(火)14:19 ID:+ftC4go90(1) AAS
理論知ってるよりデータの集め方の上手い人のが活用してる印象。
クローラで上手いこと画像集めてくるのに慣れてる人だったり。
361(1): (ブーイモ MMb6-RrhF) 2019/01/29(火)14:21 ID:3z5TaQ6EM(1) AAS
皆dmm好きだな
362: (ワッチョイ 0668-uJAn) 2019/01/29(火)14:24 ID:97jY20NI0(3/4) AAS
>>360
無料のデータセットとか色々あるしね
エロは以外とむずかすぃ・・・
363: (ワッチョイ e1da-h/iE) 2019/01/29(火)15:07 ID:qfbmFsib0(2/2) AAS
>>361
名前が変わったよ
364: (ワッチョイ 41ad-L3L3) 2019/01/29(火)20:20 ID:uLltl72Q0(1) AAS
>>359
> 次のAIブームに期待しましょう
次のAIブームは100年後ですよ?
つまり脳の構造が全てわかったときです。
365(2): (ワッチョイ e1b3-CXcF) 2019/01/29(火)20:30 ID:MxYhDACE0(1) AAS
初心者で素朴な疑問なのですがsvmでrbfカーネルより線形カーネルの方が性能いいっていうパターンはありますか?
366: (ササクッテロ Spf1-tzNq) 2019/01/29(火)20:45 ID:EFfzDMStp(1/2) AAS
>>365
性能がいい=事象を正しく説明する
という意味なら線形な事象は線形カーネルのがいい
性能がいい=誤差が小さい
という意味なら残念ながらない
367(1): (ササクッテロ Spf1-tzNq) 2019/01/29(火)21:10 ID:EFfzDMStp(2/2) AAS
別の言い方で書くかな
性能がいい=予測誤差が小さい
なら、線形な現象は線形カーネルのがいい場合もある
性能がいい=フィッティング誤差が小さい
なら、残念ながらない
RBFカーネルは柔らかいのでカーブフィッティングしやすい
368(1): (ワッチョイ 7987-TUBY) 2019/01/29(火)21:33 ID:klbFR8200(1) AAS
>>356
BBSpinkの「正面全裸写真」スレ
369: (ワッチョイ 0668-uJAn) 2019/01/29(火)22:26 ID:97jY20NI0(4/4) AAS
>>368
神!グロ画像いっぱいと思ったら>>48が至高だったわありがとう!
370: (アウアウエー Sa4a-L3L3) 2019/01/29(火)22:35 ID:m5opkzxpa(1) AAS
戦後最長の経済回復ωωω
371: (アウアウエー Sa4a-ltHF) 2019/01/29(火)23:13 ID:inTv54/ka(1) AAS
>>365
線形カーネルだと線形判別しか出来ないのでは
372: (ワッチョイ 0668-uJAn) 2019/01/30(水)00:16 ID:nMbkMi1S0(1) AAS
タスクマネージャーのcompure_1ってなんでしょうか?
画像リンク
373(1): (ワッチョイ 8279-CXcF) 2019/01/30(水)17:57 ID:gOlK0hP00(1) AAS
>>367
例えば回帰問題であれば訓練データに一致させるようなフィッティングはrbfカーネルが絶対に勝つ。けど
分類問題で線形な問題ならaccuracyが線形カーネルの場合の方がいいということもあるということですか?
374: (ササクッテロ Spf1-tzNq) 2019/01/30(水)20:43 ID:AMhQjvKip(1) AAS
>>373
回帰問題であっても分類問題であっても、訓練はRBFカーネルがaccuracyは高い
けれどもそれをテストデータに適用しても、RBFが勝つとは限らない
375(2): (ワッチョイ df02-zGAl) 2019/01/31(木)08:45 ID:j1saZfoH0(1) AAS
単に、背景にある関数が線形に近いなら線形カーネルの方が成績が良くなるってことだよな
無駄にカーネルの表現力が高いとノイズに影響されやすくなる
関係ないが、多項式カーネルは次元を高くするほどフィッティングの成績は良くなると思ってたんだが
高くしすぎると悪化することもあるのを見て驚いた
サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になるってことかね
376(1): (アウアウエー Sa7f-eDu2) 2019/01/31(木)10:56 ID:/c3SvgTga(1) AAS
制約というよりオーバーフィッティングでは
377(1): (スッップ Sd9f-xJpY) 2019/01/31(木)11:01 ID:pd4BsQTXd(1) AAS
フィッティングの成績だから学習時の話だと思うが
378(1): (アウアウウー Saa3-MxjG) 2019/01/31(木)12:26 ID:S6N+PD6ia(1) AAS
フィッティングの成績が各点の二乗誤差の和とかなら多項式だと次数上げれば上げるほど誤差は減って、
データ点数以上の次数なら全ての点を通る曲線が作れるから誤差はゼロになるんじゃないか?
379(1): (スッップ Sd9f-xJpY) 2019/01/31(木)14:12 ID:Bzc7eYfkd(1/3) AAS
SVMはサポートベクターとの内積(=カーネル)をとってその一次合成でスコア出してるのは知ってる?
多項式で項数が増えてもそれぞれに自由に係数を指定できるわけではないから、
サポートベクターが都合の悪い配置だと次数の多さが制約になることはあるかも
380: (アウアウウー Saa3-1cI/) 2019/01/31(木)14:12 ID:0ecmyy2fa(1) AAS
話変わるんだけど
例えば5次元のデータでsvm学習しました。accuracy、A%でした。
そのデータのうちの3変数使って3次元のデータを作ってsvm学習しました。accuracy、B%でした。
AよりBの方が高くなっちゃうってケースが起きてるのですが、たぶんAとBは同じくらいになるのがsvmの性質上普通になると思うのですがなぜなのですかね。
381(2): (スッップ Sd9f-xJpY) 2019/01/31(木)14:23 ID:Bzc7eYfkd(2/3) AAS
ソフトマージンSVMは境界面近くのうまく分類できないサンプルを無視する
その数がそのまま学習データでaccuracy測ったときの残差となる
たぶん3次元で見たときの方が境界面近くのノイズが多かったんだろう
382: (ワッチョイ 7f79-1cI/) 2019/01/31(木)14:57 ID:yUcU76L10(1/2) AAS
>>381
すあません、もう少しわかりやすくお願いします
不勉強で申し訳ないのですが
383(1): (スッップ Sd9f-xJpY) 2019/01/31(木)15:09 ID:Bzc7eYfkd(3/3) AAS
>>381 は想像なんであってるかわからんがw
SVMはなるべく二つのクラスの距離(マージン)を広く取れるような境界を選ぶ性質がある
ソフトSVMは多少誤差があってもマージンを広く取る方を優先する
5次元の場合、SVMは誤差が大きい代わりにマージンが広い境界を見つけることができたのではないかということ
5次元モデルの方が汎化性能は高いかもよ
誤差とマージンのバランスはパラメータCで調整できる
384: (ワッチョイ 7f79-1cI/) 2019/01/31(木)17:39 ID:yUcU76L10(2/2) AAS
>>383
訓練精度も汎化性能もどっちも3次元の方が良かったんですよね…
385: (スッップ Sd9f-xJpY) 2019/01/31(木)17:50 ID:m2hyZCA/d(1) AAS
まあマージンが広くても上手く行くとは限らないしね
Cを大きくしてみ、100倍とか
5次元の方が3次元より学習時の誤差は小さくなるはず
なんにせよ結果を信じるなら残りの2次元が余計だったって話になると思う
386: (ワッチョイ dfb3-Q9zh) 2019/01/31(木)17:54 ID:P0SGHmWv0(1) AAS
実はデータ数が多過ぎて学習回数が全然違うとか
387: 数おたさらり (ワッチョイ ffda-bL3o) 2019/02/01(金)00:31 ID:4ECfKB/20(1) AAS
β
388(1): (ワッチョイ df02-zGAl) 2019/02/01(金)01:01 ID:gQj2ZZAq0(1) AAS
>>375-379
曖昧ですまん。そう、SVMで学習に使ったデータをそのまま分類したときの精度の話だ。
多項式カーネルでdimension=2 → 5までは順調に精度が上がったんだ
でもそれ以上次元を上げても精度は98%のまま上がらなくなった
ぐっと上げたら100%になるかなと思ってdimension=100にしてみたら50%に下がったんで意外だったって話
オーバーフィッティングさせようと思ったのに逆の結果になってしまった
上下前次1-新書関写板覧索設栞歴
あと 614 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.012s