[過去ログ] 【統計分析】機械学習・データマイニング26 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
227: (アウアウウー Sac9-B2ag [106.154.130.6]) 2019/10/13(日)20:33 ID:llG9wcVha(4/5) AAS
>>226
非線形な活性化関数噛ませるでしょ普通
自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから
228: (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/13(日)20:44 ID:/3kPh57iM(1/2) AAS
ディープキスのほうがいい!
舌をからませるの
立つよね!
229(1): (ワッチョイ 9501-qBpa [126.25.131.86]) 2019/10/13(日)20:48 ID:P1vmVh210(1) AAS
>ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
230(1): (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)21:28 ID:kaSZg9r20(8/11) AAS
>>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
231: (アウアウウー Sac9-B2ag [106.154.130.6]) 2019/10/13(日)21:37 ID:llG9wcVha(5/5) AAS
>>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
232(1): (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)21:45 ID:kaSZg9r20(9/11) AAS
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
省7
233: (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)21:46 ID:kaSZg9r20(10/11) AAS
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
省7
234: (アウアウエー Sa13-NJTS [111.239.57.16]) 2019/10/13(日)22:05 ID:48i2xCpca(3/3) AAS
五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235(2): (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/13(日)22:18 ID:/3kPh57iM(2/2) AAS
>>221
〉二層あれば大抵の関数は模倣できる
その『大抵』とは、どの程度なんですか?
それが示されてないのですから
まったく意味をなさないですよね?
>>230
その意味をなさない書き込みに、
本質的とかって、
レベル低すぎですね。
236: (ワッチョイ 0da5-X53N [42.127.86.111]) 2019/10/13(日)22:20 ID:mSmeGM2p0(1) AAS
>>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237: (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)22:35 ID:kaSZg9r20(11/11) AAS
>>235
あんたは性格悪いなぁ・・・
ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ?
知ってて聞いてるなら教えてやれよ
238: (アウアウカー Sa51-CdT3 [182.251.155.10]) 2019/10/14(月)00:26 ID:Xj3JYQcoa(1) AAS
専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239: (アウアウエー Sa13-NJTS [111.239.57.6]) 2019/10/14(月)00:50 ID:yAy44Gfva(1) AAS
初等関数?
特殊関数?
240(1): (ワッチョイ cb10-vzjJ [153.131.102.129]) 2019/10/14(月)07:16 ID:KQ95R8h/0(1) AAS
>>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
省3
241(3): (スププ Sd43-IE9o [49.96.34.97]) 2019/10/14(月)12:29 ID:utYACZDud(1/2) AAS
前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242(1): (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/14(月)12:54 ID:syyLl6c1M(1/4) AAS
>>241
ならば『excelでわかるディープラーニング超入門』がオススメ
続編もある
243: (ワッチョイ 35b0-+TD/ [180.29.199.198]) 2019/10/14(月)13:19 ID:aq/jCORe0(1) AAS
>>241
あの本は線型代数と微積分の知識は必須だと思う
244: (ワッチョイ a3bd-NJTS [157.192.94.92]) 2019/10/14(月)13:53 ID:pO8Bz3ni0(1) AAS
機械学習に数学はいらないよ
245: (オッペケ Sr61-B2ag [126.255.17.59]) 2019/10/14(月)14:01 ID:htBbaZR2r(1) AAS
機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246: (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/14(月)14:23 ID:syyLl6c1M(2/4) AAS
ソフト使うだけなら数学いらんわね
上下前次1-新書関写板覧索設栞歴
あと 756 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.012s