[過去ログ]
【統計分析】機械学習・データマイニング31 (1002レス)
【統計分析】機械学習・データマイニング31 http://mevius.5ch.net/test/read.cgi/tech/1632587566/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
必死チェッカー(本家)
(べ)
自ID
レス栞
あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
567: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:17:06.59 ID:QHBqVOhI0 過学習と学習不足(未学習)は機械学習の基本的な考え方だねー。varianceとbiasと考えてもいいよー ところがディープラーニングの世界では、過学習の先に突然精度が上がる現象が確認されてるよー 不思議だねー http://mevius.5ch.net/test/read.cgi/tech/1632587566/567
571: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:35:33.93 ID:QHBqVOhI0 Double Descentだねー 大規模言語モデルだと前提になってるよー http://mevius.5ch.net/test/read.cgi/tech/1632587566/571
572: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:38:29.11 ID:QHBqVOhI0 とはいえ過学習を是とすると、それはただの全文検索なので Double Descent, Overparameterizationは既知の概念ではない何かなんだろうねー http://mevius.5ch.net/test/read.cgi/tech/1632587566/572
573: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:41:34.38 ID:QHBqVOhI0 >>568 トイプロブレムで実証したことはないけど、実務で大きめのモデルを扱っている人は、みんなそれっぽい現象を観測した経験があると思うよー とはいえ、概念を先に知らないと偶然としか思わないんだけどねー http://mevius.5ch.net/test/read.cgi/tech/1632587566/573
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.037s