[過去ログ]
【統計分析】機械学習・データマイニング29 (1002レス)
【統計分析】機械学習・データマイニング29 http://mevius.5ch.net/test/read.cgi/tech/1597882603/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
814: デフォルトの名無しさん (ワッチョイ 7901-MC0k [60.69.230.42]) [sage] 2020/12/10(木) 19:34:03.65 ID:qJWGxKCt0 目的関数が異なるモデル同士は性能を比較できないんじゃない? 目的関数の他に最適性の指標となる評価関数があるなら別だけど。 http://mevius.5ch.net/test/read.cgi/tech/1597882603/814
816: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/10(木) 20:53:11.62 ID:7nBpTtaz0 >>812 どういうことでしょうか? >>813-815 ありがとうございました. 岡谷貴之著『深層学習』を読んでいるのですが,確率的勾配降下法についての素朴な質問です. Nは全訓練サンプルの数です. E(w) = Σ_{n=1}^{N} E_n(w) 確率的勾配降下法では,極端な場合,サンプル1つだけを使ってパラメータの更新を行うと書いてあります. たとえば,n=1のサンプルを使って,wを更新したとします. このとき,E_1(w)の値は,(学習係数の値が十分小さければ,)少し小さくなりますが,他のnについてのE_n(w)の値は逆に増えてしまい, トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか? 岡谷の本にはそのことについて全く触れていません. http://mevius.5ch.net/test/read.cgi/tech/1597882603/816
821: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:27:23.48 ID:3MNDS+Jy0 >>814 最終的な性能は正解率とか指標があるでしょう http://mevius.5ch.net/test/read.cgi/tech/1597882603/821
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.034s