[過去ログ]
【統計分析】機械学習・データマイニング30 (1002レス)
【統計分析】機械学習・データマイニング30 http://mevius.5ch.net/test/read.cgi/tech/1609459855/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
337: デフォルトの名無しさん (ワッチョイ 3689-/CMm [39.111.228.181]) [] 2021/04/10(土) 21:39:10 ID:fnNsjOwD0 ちょっとこれは、かなり難しく、力をお貸しいただきたいのですが、 自分でニューラルネットワークを作ろう https://qiita.com/takahiro_itazuri/items/d2bea1c643d7cca11352#comment-a59cd26161ee56ea1220 の記事で質問があるのですが、 なんやかんやで大体ざっとは理解できたのですが、 重みの更新式 # 重みの更新 self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T) self.w_ih += self.lr * np.dot((e_h * self.daf(o_h)), o_i.T) この式の意味が本当に分かりません。 ※*は、成分同士を掛けて行列積を求めるもので、np.dotは普通の行列積になります。 一応 隠れ層から出力層への重みによる偏微分 入力層から隠れ層への重みによる偏微分 の部分は読んで、まぁそうなるんだろうなとざっと理解でき、 【深層学習】誤差逆伝播法|バックプロパゲーション ttps://youtu.be/X8hK4ovQoLg この動画を見たりしたのですが、 まず1つ目の self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T) からよく分かりません。 可能であれば、複数の式になって良いので、スカラーによる計算式で示して頂きたいのですが・・・なぜこのようになるのか、を。 たぶん、 隠れ層から出力層への重みによる偏微分 入力層から隠れ層への重みによる偏微分 にある「重みの式」に代入していくような感じだとは思うのですが・・・。 http://mevius.5ch.net/test/read.cgi/tech/1609459855/337
338: デフォルトの名無しさん (ブーイモ MMff-fxd7 [210.138.177.206]) [sage] 2021/04/11(日) 11:31:48 ID:cX1p0N8YM >>337 そのQiitaの記事のコードの上の方に数式は具体的に書かれている訳だけども、 まずそっちは理解しているのかな? 理解できてないのであればまずは線形代数をしっかり学ぶ必要があると思う http://mevius.5ch.net/test/read.cgi/tech/1609459855/338
339: デフォルトの名無しさん (アウアウウー Sa47-hzJq [106.133.47.168]) [sage] 2021/04/11(日) 21:23:07 ID:J8YGJLtEa >>337 dWの微分を行列で表すとそうなる ほとんどの本ではそこは省略されてることが多い http://mevius.5ch.net/test/read.cgi/tech/1609459855/339
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.038s