[過去ログ] 【統計分析】機械学習・データマイニング30 (1002レス)
上下前次1-新
抽出解除 レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
337(2): (ワッチョイ 3689-/CMm [39.111.228.181]) 2021/04/10(土)21:39 ID:fnNsjOwD0(1) AAS
ちょっとこれは、かなり難しく、力をお貸しいただきたいのですが、
自分でニューラルネットワークを作ろう
外部リンク:qiita.com
の記事で質問があるのですが、
なんやかんやで大体ざっとは理解できたのですが、
重みの更新式
# 重みの更新
self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T)
self.w_ih += self.lr * np.dot((e_h * self.daf(o_h)), o_i.T)
この式の意味が本当に分かりません。
※*は、成分同士を掛けて行列積を求めるもので、np.dotは普通の行列積になります。
一応
隠れ層から出力層への重みによる偏微分
入力層から隠れ層への重みによる偏微分
の部分は読んで、まぁそうなるんだろうなとざっと理解でき、
【深層学習】誤差逆伝播法|バックプロパゲーション
動画リンク[YouTube]
この動画を見たりしたのですが、
まず1つ目の
self.w_ho += self.lr * np.dot((e_o * self.daf(o_o)), o_h.T)
からよく分かりません。
可能であれば、複数の式になって良いので、スカラーによる計算式で示して頂きたいのですが・・・なぜこのようになるのか、を。
たぶん、
隠れ層から出力層への重みによる偏微分
入力層から隠れ層への重みによる偏微分
にある「重みの式」に代入していくような感じだとは思うのですが・・・。
338(1): (ブーイモ MMff-fxd7 [210.138.177.206]) 2021/04/11(日)11:31 ID:cX1p0N8YM(1) AAS
>>337
そのQiitaの記事のコードの上の方に数式は具体的に書かれている訳だけども、
まずそっちは理解しているのかな?
理解できてないのであればまずは線形代数をしっかり学ぶ必要があると思う
339(1): (アウアウウー Sa47-hzJq [106.133.47.168]) 2021/04/11(日)21:23 ID:J8YGJLtEa(1/2) AAS
>>337
dWの微分を行列で表すとそうなる
ほとんどの本ではそこは省略されてることが多い
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.035s