[過去ログ] 【統計分析】機械学習・データマイニング31 (1002レス)
上下前次1-新
抽出解除 レス栞 あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
525(1): (ワッチョイ ee10-UDwQ [153.243.43.6]) 2022/05/10(火)08:13 ID:/XkHfgKF0(1/3) AAS
>>524
影響するよー。だからハイパーパラメータの調整はバッチサイズも含むんだよー。ミニバッチが内部的に何やってるかはググってね。でも、ざっくり、学習パラメータ最適化時のサンプリングサイズだと思えばいいよー
527(1): (ワッチョイ ee10-cfd4 [153.243.43.6]) 2022/05/10(火)08:59 ID:/XkHfgKF0(2/3) AAS
>>526
正しいやり方はないけど、単純なアルゴリズムでベースラインモデル作って評価基準を作り、独自のモデルがそれと比較して優位かを確認しながら進めるという、方法論のテンプレはあるよー。
今ならAutoMLを使うのもいいねー。対応しているタスクならだけどねー
534: (ワッチョイ ee10-cfd4 [153.243.43.6]) 2022/05/10(火)18:17 ID:/XkHfgKF0(3/3) AAS
>>533
具体的な論文は把握してないけど、時系列予測で考えると直感的な理解が得られ易いと思うよー
567(3): (ワッチョイ ee10-cfd4 [153.243.43.6]) 2022/05/12(木)19:17 ID:QHBqVOhI0(1/4) AAS
過学習と学習不足(未学習)は機械学習の基本的な考え方だねー。varianceとbiasと考えてもいいよー
ところがディープラーニングの世界では、過学習の先に突然精度が上がる現象が確認されてるよー
不思議だねー
571: (ワッチョイ ee10-cfd4 [153.243.43.6]) 2022/05/12(木)19:35 ID:QHBqVOhI0(2/4) AAS
Double Descentだねー
大規模言語モデルだと前提になってるよー
572: (ワッチョイ ee10-cfd4 [153.243.43.6]) 2022/05/12(木)19:38 ID:QHBqVOhI0(3/4) AAS
とはいえ過学習を是とすると、それはただの全文検索なので
Double Descent, Overparameterizationは既知の概念ではない何かなんだろうねー
573(1): (ワッチョイ ee10-cfd4 [153.243.43.6]) 2022/05/12(木)19:41 ID:QHBqVOhI0(4/4) AAS
>>568
トイプロブレムで実証したことはないけど、実務で大きめのモデルを扱っている人は、みんなそれっぽい現象を観測した経験があると思うよー
とはいえ、概念を先に知らないと偶然としか思わないんだけどねー
594(1): (ワッチョイ ca10-biPL [153.243.43.6]) 2022/05/16(月)12:08 ID:ucnn58bs0(1) AAS
>>593
転移学習の話なら出力層の直前までを再利用することが多いよー
XAIの話ならなんとも言えないねー。ただ、あまり深い層だと(人が見て)解釈が難しいことが多いよー
599: (ワッチョイ ca10-Kq3f [153.243.43.6]) 2022/05/18(水)17:48 ID:tbtjI4Jo0(1) AAS
>>596
グレースケールも次元削減の一種だねー
結局元データの特徴量が強調されるよー
606: (ワッチョイ ca10-biPL [153.243.43.6]) 2022/05/19(木)18:30 ID:zHi3KVOI0(1) AAS
>>605
CNNはエッジ検出も行っているといえるねー
それでも誤検出するなら、データの問題を先に考えるのが今のトレンドだねー
本質的に区別ができないという可能性もあるけど、それなら人が違和感持たないので、なんか不測があるんだろうねー
610: (ワッチョイ e610-kFU8 [153.243.43.6]) 2022/05/22(日)18:45 ID:rU+wfvkz0(1) AAS
>>609
目的が分かち書きだと万能な方法はないねー
何らかのタスクの前処理ならBPEやSPがいいねー
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.035s