[過去ログ] 【統計分析】機械学習・データマイニング26 (1002レス)
前次1-
抽出解除 レス栞

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
19: (アウアウエー Sa13-9GzD [111.239.39.77]) 2019/09/25(水)21:30:03.73 ID:P5XKQ29wa(1) AAS
うbyにもcondaがあればな
gemじゃだめだ
250: (ワッチョイ 653c-b92j [118.240.95.156]) 2019/10/14(月)14:40:16.73 ID:VuPQ6UMJ0(1) AAS
>>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので

言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している

もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては

(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)

となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる

(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り

それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
448: (ワッチョイ 5301-ANgw [60.86.178.93]) 2019/11/05(火)18:16:33.73 ID:4ZvLZxny0(3/5) AAS
>>447
それは、いえてる。
544: (ワッチョイ bfda-TAVf [223.217.165.240]) 2019/11/11(月)18:52:23.73 ID:Oegy0lSI0(1) AAS
外部リンク:tech.nikkeibp.co.jp
627: (アークセー Sx33-O/Gm [126.149.48.137]) 2019/11/30(土)18:09:44.73 ID:YcFQTR8Rx(2/3) AAS
実務上は精度追い求めるよりFeature Importanceが出せるかどうかの方が重要なんだよなぁ
689: (アウウィフ FF79-MVf8 [106.171.67.227]) 2019/12/10(火)14:05:49.73 ID:48kVELqAF(1) AAS
阿部進次郎
732: (ワッチョイ 6bda-prDO [121.114.135.179]) 2019/12/22(日)14:19:38.73 ID:sLfMPx200(1) AAS
tensorflowに触ってごらん、AIだよ
907
(1): (ワッチョイ cb01-uetj [60.86.178.93]) 2020/01/05(日)15:01:35.73 ID:Xx30ZH0k0(1) AAS
>>897
(ヾノ・∀・`)ナイナイ

大量に話しかけてやれば
そのうち
それっぽい応答するようになる、かもしれない
日本語対応Python3系のコードっていうと
ちょっと古いが、
unmoっていうのがある。
探して読んでインスコして遊んでみれ。
999: (スッップ Sd43-2fhw [49.98.157.58]) 2020/01/13(月)20:43:03.73 ID:QmCTZYcld(5/6) AAS
ldl
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ

ぬこの手 ぬこTOP 0.102s