[過去ログ]
【統計分析】機械学習・データマイニング28 (1002レス)
【統計分析】機械学習・データマイニング28 http://mevius.5ch.net/test/read.cgi/tech/1588293154/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
必死チェッカー(本家)
(べ)
自ID
レス栞
あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
438: デフォルトの名無しさん (ワッチョイ a5ad-+WYv [42.144.122.89]) [] 2020/07/05(日) 01:51:19.26 ID:I6aovzvx0 >>431 その本読んでみないと何とも言えんな パーセプトロンの解説なんてネット上に腐るほどあると思うんだがな 一般的には分類用の単純パーセプトロンはロジスティック回帰が使われる事が多くて、指数型分布族でコスト関数が凸になるからつまずくとこなんてあるかーって感じだわ 普通にロジスティック回帰の勾配法での更新式を自分で計算してみたらどうだ? 「ロジスティック回帰 勾配法 導出」とかで検索すれば直ぐ答えが得られるが http://mevius.5ch.net/test/read.cgi/tech/1588293154/438
439: デフォルトの名無しさん (ワッチョイ a5ad-+WYv [42.144.122.89]) [] 2020/07/05(日) 03:01:57.62 ID:I6aovzvx0 >>431 あーなるほど、これは活性化関数にステップ関数を使っていて、さらにデータは線形モデルで精度100%が達成可能である事を前提としてんのね それじゃあロジスティック回帰とは全然違うわなw 重みの更新式は学習率に応じて少しずつ何度も繰り返し計算されるからいずれ正になるぞー w'_1*x=w_1*x+η*x^2 > w_1*x となるわけだから ηは学習率 http://mevius.5ch.net/test/read.cgi/tech/1588293154/439
442: デフォルトの名無しさん (ワッチョイ a5ad-+WYv [42.144.122.89]) [] 2020/07/05(日) 11:43:41.74 ID:I6aovzvx0 面白い人である必要はない http://mevius.5ch.net/test/read.cgi/tech/1588293154/442
447: デフォルトの名無しさん (ワッチョイ a5ad-+WYv [42.144.122.89]) [] 2020/07/05(日) 18:53:06.09 ID:I6aovzvx0 >>443 w_3の存在を忘れてたりしない? サンプルに1次元追加してそこを1で埋めればw_3はちょうど切片の役割を果たす まずは1次元の場合で考えてみたらどうかな? そうしたら切片の役割がより分かりやすいと思う その上で、ステップ関数を使った単純パーセプトロンは損失関数をmax(0,-twx)とする事が出来る為、不正解となったサンプルのみ勾配法によって重み更新する事を考える 不正解の場合損失関数は-twx返す為、-twxをwで微分して、答えは-txとなる 従って更新式は勾配法によってw+txとなることがわかる 証明としては不完全だけど分かりやすくイメージがつかめると思う http://mevius.5ch.net/test/read.cgi/tech/1588293154/447
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.032s