[過去ログ]
【統計分析】機械学習・データマイニング29 (1002レス)
【統計分析】機械学習・データマイニング29 http://mevius.5ch.net/test/read.cgi/tech/1597882603/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
856: デフォルトの名無しさん (ワッチョイ 13ad-MyGI [125.13.183.98]) [] 2020/12/12(土) 13:53:44.49 ID:qFkF8Df00 勾配降下法の意味は理解できましたが、使う意味がよく分からないです。 初めから勾配ベクトルが零ベクトルになるように偏微分の連立方程式解いて その解を損失関数に代入したものの中から最小のものを選べば済むんじゃないですか? そうすれば局所最適解に陥ることも避けられますし http://mevius.5ch.net/test/read.cgi/tech/1597882603/856
861: デフォルトの名無しさん (ワッチョイ 13ad-MyGI [125.13.183.98]) [] 2020/12/12(土) 15:52:55.84 ID:qFkF8Df00 次元(変数の数?)が膨大な上に、偏微分で得られた導関数が5次以上になると 代数的に解くことができなくなるからってことなんですね 勉強になりました、ありがとうございます http://mevius.5ch.net/test/read.cgi/tech/1597882603/861
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.034s