[過去ログ]
【統計分析】機械学習・データマイニング26 (1002レス)
【統計分析】機械学習・データマイニング26 http://mevius.5ch.net/test/read.cgi/tech/1568506986/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
225: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:32:44.25 ID:llG9wcVha >>223 一旦中間層のニューロン数だけの次元を持つ空間を経由できるから http://mevius.5ch.net/test/read.cgi/tech/1568506986/225
226: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 20:04:55.16 ID:Fxu1r5BT0 >>225 線型結合して関数を通して また線型結合して関数を通して の繰り返しでなぜ高次元になるの? 関数によって非線形になるなら判るけど http://mevius.5ch.net/test/read.cgi/tech/1568506986/226
227: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 20:33:11.99 ID:llG9wcVha >>226 非線形な活性化関数噛ませるでしょ普通 自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから http://mevius.5ch.net/test/read.cgi/tech/1568506986/227
228: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 20:44:50.78 ID:/3kPh57iM ディープキスのほうがいい! 舌をからませるの 立つよね! http://mevius.5ch.net/test/read.cgi/tech/1568506986/228
229: デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86]) [sage] 2019/10/13(日) 20:48:48.51 ID:P1vmVh210 >ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない こんなことを示した論文などない。 よくこんなことをさも証明されたことの如く言えるな。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/229
230: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:28:26.53 ID:kaSZg9r20 >>221 本質的な質問が来た これについては俺も明確な答えは持ってないなぁ 直感的には、多層の方が中間層に保持できるパラメータ数が多く そこには活性化関数を通した非線形の効果も含まれているので ほどほどにノイズが消されていて抽象的な状態を保持できるから と思うんだが、本当かどうかは分からない http://mevius.5ch.net/test/read.cgi/tech/1568506986/230
231: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 21:37:08.64 ID:llG9wcVha >>229 Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014. NIPSの論文だが 何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか http://mevius.5ch.net/test/read.cgi/tech/1568506986/231
232: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:45:22.38 ID:kaSZg9r20 >>226 ちょうどいいので>>220で示したXORを例に説明しよう 入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う つまり (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる すなわちx3をx1, x2から作れれば良いので a = w11・x1 + w12・x2 b = w21・x1 + w22・x2 c = w31・x1 + w32・x2 d = w41・x1 + w42・x2 として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである つまり層を1層増やすということは、次元を増やすことと同値である http://mevius.5ch.net/test/read.cgi/tech/1568506986/232
233: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:46:31.38 ID:kaSZg9r20 >>226 ちょうどいいので>>220で示したXORを例に説明しよう 入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う つまり (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる すなわちx3をx1, x2から作れれば良いので a = w11・x1 + w12・x2 b = w21・x1 + w22・x2 c = w31・x1 + w32・x2 d = w41・x1 + w42・x2 として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである つまり層を1層増やすということは、次元を増やすことと同値である http://mevius.5ch.net/test/read.cgi/tech/1568506986/233
234: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 22:05:13.10 ID:48i2xCpca 五、六層でいいのかと思いきや ものすごく多層にするよねえ うまくいくからという説明しかないのか? http://mevius.5ch.net/test/read.cgi/tech/1568506986/234
235: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 22:18:18.69 ID:/3kPh57iM >>221 〉二層あれば大抵の関数は模倣できる その『大抵』とは、どの程度なんですか? それが示されてないのですから まったく意味をなさないですよね? >>230 その意味をなさない書き込みに、 本質的とかって、 レベル低すぎですね。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/235
236: デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111]) [sage] 2019/10/13(日) 22:20:28.84 ID:mSmeGM2p0 >>235 完全な関数の導入じゃなくて疑似的な関数が解ればいいから http://mevius.5ch.net/test/read.cgi/tech/1568506986/236
237: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 22:35:14.55 ID:kaSZg9r20 >>235 あんたは性格悪いなぁ・・・ ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ? 知ってて聞いてるなら教えてやれよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/237
238: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10]) [sage] 2019/10/14(月) 00:26:24.00 ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる http://mevius.5ch.net/test/read.cgi/tech/1568506986/238
239: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6]) [sage] 2019/10/14(月) 00:50:17.12 ID:yAy44Gfva 初等関数? 特殊関数? http://mevius.5ch.net/test/read.cgi/tech/1568506986/239
240: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/14(月) 07:16:20.36 ID:KQ95R8h/0 >>232 それだと x1, x2の入力を受けるニューロンと それからx3を計算するニューロンを並列に並べたら良い x1-x1\ x2-x2-out \x3/ みたいに 次元を増やすの意味として変数増加とx^2などと混同しやすい これらを区別する言い方は何? 変数増加→高次元 x^2など→非線形 とか? http://mevius.5ch.net/test/read.cgi/tech/1568506986/240
241: デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/14(月) 12:29:28.91 ID:utYACZDud 前に『ゼロから作るディープラーニング』買ったけど これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。 やっぱノートに書いて解き方や意味を学習するしかないと思うねん。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/241
242: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 12:54:25.27 ID:syyLl6c1M >>241 ならば『excelでわかるディープラーニング超入門』がオススメ 続編もある http://mevius.5ch.net/test/read.cgi/tech/1568506986/242
243: デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198]) [sage] 2019/10/14(月) 13:19:28.08 ID:aq/jCORe0 >>241 あの本は線型代数と微積分の知識は必須だと思う http://mevius.5ch.net/test/read.cgi/tech/1568506986/243
244: デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92]) [sage] 2019/10/14(月) 13:53:05.51 ID:pO8Bz3ni0 機械学習に数学はいらないよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/244
245: デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59]) [] 2019/10/14(月) 14:01:22.69 ID:htBbaZR2r 機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」 http://mevius.5ch.net/test/read.cgi/tech/1568506986/245
246: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 14:23:44.68 ID:syyLl6c1M ソフト使うだけなら数学いらんわね http://mevius.5ch.net/test/read.cgi/tech/1568506986/246
247: デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173]) [sage] 2019/10/14(月) 14:26:05.12 ID:daX/fZMnF 適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要 普通の企業や研究室ではそんなものに金なんて出してくれないがな http://mevius.5ch.net/test/read.cgi/tech/1568506986/247
248: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/14(月) 14:31:10.41 ID:JdA0BOgta >>247 そういう仕事は既にAutoMLに取られつつあるね http://mevius.5ch.net/test/read.cgi/tech/1568506986/248
249: デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127]) [sage] 2019/10/14(月) 14:31:49.76 ID:XFqMr8NbM というかこの世界ももう土方がいるのか http://mevius.5ch.net/test/read.cgi/tech/1568506986/249
250: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/14(月) 14:40:16.73 ID:VuPQ6UMJ0 >>240 並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ 0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので 言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している もう少し詳しく説明しよう より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては (f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1) となっている Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる (1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる 隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある 単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない http://mevius.5ch.net/test/read.cgi/tech/1568506986/250
251: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 14:42:39.82 ID:syyLl6c1M 最初から土方しかいないから。 今もほとんど土方。 できる人は研究者か大学教員になってる。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/251
252: デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173]) [sage] 2019/10/14(月) 14:47:46.87 ID:daX/fZMnF この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象 http://mevius.5ch.net/test/read.cgi/tech/1568506986/252
253: デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/14(月) 15:08:32.93 ID:utYACZDud >>242 ありがとう。調べてみます。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/253
254: デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116]) [sage] 2019/10/14(月) 15:10:40.92 ID:4WTqwCCG0 今ならまだ簡単にデータエンジニア目指せるけど、 早い者勝ちなのかな すぐベテランにしか仕事がこなくなるよね http://mevius.5ch.net/test/read.cgi/tech/1568506986/254
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 748 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.013s