[過去ログ]
【統計分析】機械学習・データマイニング26 (1002レス)
【統計分析】機械学習・データマイニング26 http://mevius.5ch.net/test/read.cgi/tech/1568506986/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
221: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 18:39:55.88 ID:48i2xCpca 二層あれば大抵の関数は模倣できるのに 何でもっと多層が必要なの? http://mevius.5ch.net/test/read.cgi/tech/1568506986/221
224: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:30:49.94 ID:llG9wcVha >>221 層を増やす方が効率が高い ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない http://mevius.5ch.net/test/read.cgi/tech/1568506986/224
230: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:28:26.53 ID:kaSZg9r20 >>221 本質的な質問が来た これについては俺も明確な答えは持ってないなぁ 直感的には、多層の方が中間層に保持できるパラメータ数が多く そこには活性化関数を通した非線形の効果も含まれているので ほどほどにノイズが消されていて抽象的な状態を保持できるから と思うんだが、本当かどうかは分からない http://mevius.5ch.net/test/read.cgi/tech/1568506986/230
235: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 22:18:18.69 ID:/3kPh57iM >>221 〉二層あれば大抵の関数は模倣できる その『大抵』とは、どの程度なんですか? それが示されてないのですから まったく意味をなさないですよね? >>230 その意味をなさない書き込みに、 本質的とかって、 レベル低すぎですね。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/235
250: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/14(月) 14:40:16.73 ID:VuPQ6UMJ0 >>240 並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ 0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので 言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している もう少し詳しく説明しよう より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては (f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1) となっている Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる (1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる 隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある 単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない http://mevius.5ch.net/test/read.cgi/tech/1568506986/250
280: デフォルトの名無しさん (オッペケ Sr61-uMWA [126.255.149.234]) [sage] 2019/10/15(火) 12:32:17.34 ID:2+ahF6drr >>221 層が多いほうが表現力が高い 教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。 パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう? http://mevius.5ch.net/test/read.cgi/tech/1568506986/280
283: デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59]) [] 2019/10/15(火) 16:36:14.39 ID:OfiTiE/Hr >>221 深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている http://mevius.5ch.net/test/read.cgi/tech/1568506986/283
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.046s