[過去ログ] 【統計分析】機械学習・データマイニング26 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
232(1): (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)21:45 ID:kaSZg9r20(9/11) AAS
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
233: (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)21:46 ID:kaSZg9r20(10/11) AAS
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
234: (アウアウエー Sa13-NJTS [111.239.57.16]) 2019/10/13(日)22:05 ID:48i2xCpca(3/3) AAS
五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235(2): (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/13(日)22:18 ID:/3kPh57iM(2/2) AAS
>>221
〉二層あれば大抵の関数は模倣できる
その『大抵』とは、どの程度なんですか?
それが示されてないのですから
まったく意味をなさないですよね?
>>230
その意味をなさない書き込みに、
本質的とかって、
レベル低すぎですね。
236: (ワッチョイ 0da5-X53N [42.127.86.111]) 2019/10/13(日)22:20 ID:mSmeGM2p0(1) AAS
>>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237: (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/13(日)22:35 ID:kaSZg9r20(11/11) AAS
>>235
あんたは性格悪いなぁ・・・
ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ?
知ってて聞いてるなら教えてやれよ
238: (アウアウカー Sa51-CdT3 [182.251.155.10]) 2019/10/14(月)00:26 ID:Xj3JYQcoa(1) AAS
専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239: (アウアウエー Sa13-NJTS [111.239.57.6]) 2019/10/14(月)00:50 ID:yAy44Gfva(1) AAS
初等関数?
特殊関数?
240(1): (ワッチョイ cb10-vzjJ [153.131.102.129]) 2019/10/14(月)07:16 ID:KQ95R8h/0(1) AAS
>>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
241(3): (スププ Sd43-IE9o [49.96.34.97]) 2019/10/14(月)12:29 ID:utYACZDud(1/2) AAS
前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242(1): (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/14(月)12:54 ID:syyLl6c1M(1/4) AAS
>>241
ならば『excelでわかるディープラーニング超入門』がオススメ
続編もある
243: (ワッチョイ 35b0-+TD/ [180.29.199.198]) 2019/10/14(月)13:19 ID:aq/jCORe0(1) AAS
>>241
あの本は線型代数と微積分の知識は必須だと思う
244: (ワッチョイ a3bd-NJTS [157.192.94.92]) 2019/10/14(月)13:53 ID:pO8Bz3ni0(1) AAS
機械学習に数学はいらないよ
245: (オッペケ Sr61-B2ag [126.255.17.59]) 2019/10/14(月)14:01 ID:htBbaZR2r(1) AAS
機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246: (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/14(月)14:23 ID:syyLl6c1M(2/4) AAS
ソフト使うだけなら数学いらんわね
247(1): (ミカカウィ FF59-CdT3 [210.160.37.173]) 2019/10/14(月)14:26 ID:daX/fZMnF(1/2) AAS
適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
248: (アウアウウー Sac9-B2ag [106.154.130.6]) 2019/10/14(月)14:31 ID:JdA0BOgta(1/3) AAS
>>247
そういう仕事は既にAutoMLに取られつつあるね
249: (アメ MM29-2D7i [218.225.236.127]) 2019/10/14(月)14:31 ID:XFqMr8NbM(1) AAS
というかこの世界ももう土方がいるのか
250: (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/14(月)14:40 ID:VuPQ6UMJ0(1) AAS
>>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
251: (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/14(月)14:42 ID:syyLl6c1M(3/4) AAS
最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
252: (ミカカウィ FF59-CdT3 [210.160.37.173]) 2019/10/14(月)14:47 ID:daX/fZMnF(2/2) AAS
この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
253: (スププ Sd43-IE9o [49.96.34.97]) 2019/10/14(月)15:08 ID:utYACZDud(2/2) AAS
>>242
ありがとう。調べてみます。
254: (ワッチョイ 0359-o74w [133.175.166.116]) 2019/10/14(月)15:10 ID:4WTqwCCG0(1/2) AAS
今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
255(1): (ワッチョイ 0359-o74w [133.175.166.116]) 2019/10/14(月)15:13 ID:4WTqwCCG0(2/2) AAS
>>241
あの本のレベルの数学が分からないと厳しい
数学が分からないと言いながらDSやってる人たちでも理解できる程度の内容
256: (ワッチョイ 8302-o74w [101.142.8.160]) 2019/10/14(月)15:22 ID:drx0D0Vb0(1) AAS
博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
257(1): (トンモー MM59-d/3+ [210.142.95.69]) 2019/10/14(月)16:12 ID:syyLl6c1M(4/4) AAS
博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
258(1): (アウアウウー Sac9-B2ag [106.154.130.6]) 2019/10/14(月)17:26 ID:JdA0BOgta(2/3) AAS
>>257
例えばどこの院
259: (ワッチョイ ab82-IE9o [113.20.238.175]) 2019/10/14(月)18:51 ID:/yNf4ic50(1/2) AAS
>>255
DSって何ですか?
260: (エムゾネ FF43-1wBF [49.106.193.20]) 2019/10/14(月)18:55 ID:ljIrzJ7BF(1) AAS
Deta
Saiensu
261: (アウアウクー MMe1-o74w [36.11.225.237]) 2019/10/14(月)19:22 ID:lAL0R9ntM(1/3) AAS
サイエンティストな
上下前次1-新書関写板覧索設栞歴
あと 741 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.021s