[過去ログ]
【統計分析】機械学習・データマイニング23 (1002レス)
【統計分析】機械学習・データマイニング23 http://mevius.5ch.net/test/read.cgi/tech/1551352040/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
775: デフォルトの名無しさん (ワッチョイ 5fb5-jqZb [118.240.173.214]) [sage] 2019/04/21(日) 01:31:18.52 ID:M/a5iigF0 ディープニューラルネットワークとも言うでしょ http://mevius.5ch.net/test/read.cgi/tech/1551352040/775
776: デフォルトの名無しさん (ワッチョイ 7f3e-tFh+ [149.54.201.210]) [sage] 2019/04/21(日) 03:34:26.64 ID:aRPhJ5ei0 層を増やすだけなら なんでジェフリーヒントンがディープラーニング発見するまでに時間かかったんや? http://mevius.5ch.net/test/read.cgi/tech/1551352040/776
777: デフォルトの名無しさん (ワッチョイ 5fad-61/s [124.144.197.178]) [] 2019/04/21(日) 04:55:11.58 ID:gW8lsVjX0 計算できないからだよ http://mevius.5ch.net/test/read.cgi/tech/1551352040/777
778: デフォルトの名無しさん (ワッチョイ ff10-nTKY [153.131.102.129]) [] 2019/04/21(日) 08:06:31.60 ID:Z7Ny5UGC0 >>774 中間層を増やすだけでも それを上手く学習される技術がわからなかった それを解決できた http://mevius.5ch.net/test/read.cgi/tech/1551352040/778
779: デフォルトの名無しさん (ワッチョイ ff10-nTKY [153.131.102.129]) [] 2019/04/21(日) 08:08:01.74 ID:Z7Ny5UGC0 >>776 自分で少ない層のニューラルネットワークを作って 単純に中間層を増やして動かしてみたら良いよ http://mevius.5ch.net/test/read.cgi/tech/1551352040/779
780: デフォルトの名無しさん (ワッチョイ 5f40-s4yl [118.104.141.4]) [] 2019/04/21(日) 11:40:50.99 ID:X66J/yPd0 ディープラーニングの中間層を大脳のようにランダムに配置したり 伝播をカオス化させたりするのはうまくいかないんでしょうか 新しいものが生まれそうな気がするんですが そういう研究はあると思うのにネットで検索してもでてこない http://mevius.5ch.net/test/read.cgi/tech/1551352040/780
781: デフォルトの名無しさん (ワッチョイ ff66-PIYw [183.77.216.198]) [] 2019/04/21(日) 12:01:24.17 ID:QxBwEbiO0 fasttextを使ってみて驚いた 標準ライブラリだけでこの速度と精度を実現してるの?? http://mevius.5ch.net/test/read.cgi/tech/1551352040/781
782: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/21(日) 14:34:18.10 ID:iN8e06dBp >>780 今のところ一番近いキーワードはベイジアンネットワークかな 一般的には神経科学を計算機で実現する計算神経科学と呼ばれる分野 バックプロパゲーションは脳内では起きていないと言われていて、今のニューラルネットワークはヒトの脳とはどこか違うらしい http://mevius.5ch.net/test/read.cgi/tech/1551352040/782
783: デフォルトの名無しさん (スップ Sd9f-qfrb [49.97.102.241]) [sage] 2019/04/21(日) 14:54:11.11 ID:S/sx7hKld >>780 今月の頭にFacebookが公開したrandomly wired neural networksはどう? http://mevius.5ch.net/test/read.cgi/tech/1551352040/783
784: デフォルトの名無しさん (トンモー MM83-+96b [210.142.95.159]) [] 2019/04/21(日) 14:54:15.94 ID:YKRN8m01M >>782 昨年発見されて話題になったのは違うの? 人間の脳の解明には 少なくともあと100年 かかると言われてる。 それまで俺は生きていないので 困ってるところ。 http://mevius.5ch.net/test/read.cgi/tech/1551352040/784
785: デフォルトの名無しさん (ワッチョイ df35-YIQo [128.22.79.202]) [sage] 2019/04/21(日) 15:03:51.42 ID:7jtZEDKn0 脳の解析は必ずしも必要ではない 例えば空を飛ぶのに鳥の羽根を模倣する必要はない。参考にはしてもいいけどね そういう意味では脳の解析は100年後になるぐらい、どうでもいいことだとは思う http://mevius.5ch.net/test/read.cgi/tech/1551352040/785
786: デフォルトの名無しさん (エムゾネ FF9f-ZG7F [49.106.188.33]) [] 2019/04/21(日) 15:17:24.07 ID:X+dVpzWxF 人間はミスが多い 錯覚も多い 勘違いも多い 思い込みで暴走しまくる 人間と同じもの人間の延長で造っても仕方ない 人間を模倣するべきではない http://mevius.5ch.net/test/read.cgi/tech/1551352040/786
787: デフォルトの名無しさん (ワッチョイ df35-YIQo [128.22.79.202]) [sage] 2019/04/21(日) 15:19:06.82 ID:7jtZEDKn0 >>786 機械学習も錯覚を感じるんだぜ http://mevius.5ch.net/test/read.cgi/tech/1551352040/787
788: デフォルトの名無しさん (ワッチョイ 5fda-hooH [60.35.87.18]) [sage] 2019/04/21(日) 15:25:28.71 ID:N1bfuPBQ0 >>780 ないなら自分で研究したら http://mevius.5ch.net/test/read.cgi/tech/1551352040/788
789: デフォルトの名無しさん (アウアウカー Sad3-xt/Z [182.251.196.95]) [sage] 2019/04/21(日) 16:44:48.50 ID:16IUzPjsa ニューラルネットワーク界隈も元々は人間の脳を再現することを目的としていて どれだけ実用性があるモデルでも学会では脳の機構とはかけ離れているというだけで拒絶されていたが 今やニューラルネットワークは脳を再現することを目的とするものではなくなっている http://mevius.5ch.net/test/read.cgi/tech/1551352040/789
790: デフォルトの名無しさん (ワッチョイ ff66-PIYw [183.77.216.198]) [] 2019/04/21(日) 17:09:55.18 ID:QxBwEbiO0 https://arxiv.org/abs/1904.05391 バックプロパゲーション的なことは実際には起きてるらしいよ http://mevius.5ch.net/test/read.cgi/tech/1551352040/790
791: デフォルトの名無しさん (ブーイモ MM83-HEWU [210.149.255.84]) [] 2019/04/21(日) 19:35:02.65 ID:Advw4iJHM >>773 「N層ネットワーク」とは通常入力層を除いたものなのでそれだと2層じゃないかな http://cs231n.github.io/neural-networks-1/#layers http://mevius.5ch.net/test/read.cgi/tech/1551352040/791
792: デフォルトの名無しさん (アウアウウー Sa23-6cab [106.180.15.78]) [] 2019/04/21(日) 20:24:16.17 ID:bh4LIHDZa >>782 よくそんなに適当な事書けるな http://mevius.5ch.net/test/read.cgi/tech/1551352040/792
793: デフォルトの名無しさん (オッペケ Sr33-xN+x [126.211.124.147]) [sage] 2019/04/21(日) 20:30:38.20 ID:Rpc86o3sr ディープラーニングは層が何層にもなってて深いニューラルネットってことでしょ? 全く知らんけどたぶん歴史的に一層か二層の浅いニューラルネットやってた時期があってそれに比べて深いからディープラーニングって言われるようになったんじゃない? http://mevius.5ch.net/test/read.cgi/tech/1551352040/793
794: デフォルトの名無しさん (ワッチョイ 5f40-s4yl [118.104.141.4]) [] 2019/04/21(日) 21:34:43.32 ID:X66J/yPd0 二層先に繋げたり二層戻すことを 追加すると変更前のデータを参照できると思うのですが そういうのはありますか? http://mevius.5ch.net/test/read.cgi/tech/1551352040/794
795: デフォルトの名無しさん (ワッチョイ 7f3e-tFh+ [149.54.201.210]) [sage] 2019/04/22(月) 00:32:51.22 ID:Xu5D3g840 >>793 全く知らないなら書き込まなくてもいいですよカスが http://mevius.5ch.net/test/read.cgi/tech/1551352040/795
796: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 07:01:10.70 ID:vzs0SdtLp >>791 重みの数が一層だから一層ですよ >>782 どの辺りが適当? http://mevius.5ch.net/test/read.cgi/tech/1551352040/796
797: デフォルトの名無しさん (ブーイモ MM83-HEWU [210.149.254.148]) [sage] 2019/04/22(月) 08:23:31.13 ID:IPMmdhQ/M >>796 >重みの数が一層だから一層ですよ なんだやったことすらもない人かもう絡んでこないでね http://mevius.5ch.net/test/read.cgi/tech/1551352040/797
798: デフォルトの名無しさん (アウアウカー Sad3-xt/Z [182.251.193.78]) [sage] 2019/04/22(月) 08:29:53.74 ID:/TINcjlya ニューラルネットの層数のカウントで入出力層をどう数えるかなんてカウントする人の定義次第であって決まった方法などないからどうでもいい http://mevius.5ch.net/test/read.cgi/tech/1551352040/798
799: デフォルトの名無しさん (ブーイモ MM83-HEWU [210.149.254.148]) [sage] 2019/04/22(月) 08:35:49.77 ID:IPMmdhQ/M >>798 こっちの方が割と現実よね http://mevius.5ch.net/test/read.cgi/tech/1551352040/799
800: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 09:51:07.02 ID:vzs0SdtLp >>798 定義はあるよ、間違えている記事が多いだけ 入力層を数えない=層と層の間の重みの段数だよ そうでないとResNet等の層数が変わってくる ちなみに(neuron|activation)は一つの○ね 書き方まずかったかも知れんね activationを別の層と考える人もいるようだけど、それはkerasのせいかな http://mevius.5ch.net/test/read.cgi/tech/1551352040/800
801: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 09:53:23.58 ID:vzs0SdtLp >>794 skip connection http://mevius.5ch.net/test/read.cgi/tech/1551352040/801
802: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 10:32:33.53 ID:vzs0SdtLp すれ違いの理由が分かった 書き方に問題があった Input layer ―- Hidden layer ―- Output layer なら二層 書きたかったのは x ―-(wx|activation) ―- y ということなんだ 上の書き方なら Input layer ―- Output layer に相当する http://mevius.5ch.net/test/read.cgi/tech/1551352040/802
803: デフォルトの名無しさん (ブーイモ MM83-HEWU [210.149.254.148]) [sage] 2019/04/22(月) 11:06:49.82 ID:IPMmdhQ/M >>802 割と煽った書き方しちゃったけど結構紳士かつ真摯なレスする人なんだね… 新たに書いてくれたような内容なら同意。きつく言っちゃってゴメンね http://mevius.5ch.net/test/read.cgi/tech/1551352040/803
804: デフォルトの名無しさん (ササクッテロ Sp33-zRtc [126.33.38.102]) [sage] 2019/04/22(月) 12:16:34.14 ID:lqB8SLfdp 数学的な知識が乏しい自分がやる事自体間違いなのかもしれないけどみんな数学的な部分も理解してる? 導関数とか勾配とかこんなの分かるとかみんな凄すぎだわ http://mevius.5ch.net/test/read.cgi/tech/1551352040/804
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 198 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.022s