[過去ログ] 【統計分析】機械学習・データマイニング11 [無断転載禁止]©2ch.net (1002レス)
前次1-
抽出解除 レス栞

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
このスレッドは過去ログ倉庫に格納されているため、キャッシュを表示しています。過去ログメニュー
129: 2016/12/27(火)13:02:08.31 ID:ctL7TO+W(1) AAS
>>117
見得はなるなよ、馬鹿乙
289: 2017/01/02(月)12:32:51.31 ID:GdcUHK9D(1) AAS
少なくとも君は「無い」の使い方を間違っている
550
(1): 2017/01/09(月)13:51:08.31 ID:z3gVLhD7(4/4) AAS
>>547
自分でやったことがないのが丸わかり
569: 2017/01/10(火)00:18:55.31 ID:N74TPYKx(2/14) AAS
>>567
目的は一緒だが、やってることは違う
610: 2017/01/11(水)12:29:16.31 ID:xxQxfc5N(1) AAS
>>606
最初にやるような事もやってないって事じゃね
708: 2017/01/14(土)13:14:55.31 ID:0AaiAFEr(1/3) AAS
>>693
「グレブナ基底が普通」という主張が正しいわけないじゃん、バカじゃないの?
861
(1): 2017/01/16(月)23:24:13.31 ID:dJ0UlAFz(1) AAS
ベイズやSVMで20クラスほどのクラス分類をしているのですが、クロスバリデーションでは9割以上正解なのに
テストデータでは3割とかになってしまうのは、どういう原因が考えられるでしょうか?
3週データを取得して1週目と3週目を学習データに、2週目をテストデータとしているので
学習データのオーバーフィッティング?もなく学習データとテストデータの性質もバランスが取れているはずなのですが

それと、誤差要因を見出すには誤差項というのを検証するといいみたいなことを聞いたのですが、
ググると回帰分析の話が出てきますが、誤差項というのは連続性のないクラス分類でも検証できるものなのですか?
903
(1): 2017/01/18(水)23:19:49.31 ID:cw6vafSX(2/2) AAS
決定木分析でしょ
精度はともかく結果が理解しやすいのでヒジネスだとよく用いられる手法
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ

ぬこの手 ぬこTOP 4.250s