[過去ログ] 【統計分析】機械学習・データマイニング29 (1002レス)
上下前次1-新
抽出解除 レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
814(2): (ワッチョイ 7901-MC0k [60.69.230.42]) 2020/12/10(木)19:34 ID:qJWGxKCt0(1) AAS
目的関数が異なるモデル同士は性能を比較できないんじゃない?
目的関数の他に最適性の指標となる評価関数があるなら別だけど。
816(2): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)20:53 ID:7nBpTtaz0(5/7) AAS
>>812
どういうことでしょうか?
>>813-815
ありがとうございました.
岡谷貴之著『深層学習』を読んでいるのですが,確率的勾配降下法についての素朴な質問です.
Nは全訓練サンプルの数です.
E(w) = Σ_{n=1}^{N} E_n(w)
確率的勾配降下法では,極端な場合,サンプル1つだけを使ってパラメータの更新を行うと書いてあります.
たとえば,n=1のサンプルを使って,wを更新したとします.
このとき,E_1(w)の値は,(学習係数の値が十分小さければ,)少し小さくなりますが,他のnについてのE_n(w)の値は逆に増えてしまい,
トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか?
岡谷の本にはそのことについて全く触れていません.
821: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/10(木)21:27 ID:3MNDS+Jy0(1/5) AAS
>>814
最終的な性能は正解率とか指標があるでしょう
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.050s