[過去ログ]
【統計分析】機械学習・データマイニング11 [無断転載禁止]©2ch.net (1002レス)
【統計分析】機械学習・データマイニング11 [無断転載禁止]©2ch.net http://echo.5ch.net/test/read.cgi/tech/1482227795/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
575: デフォルトの名無しさん [sage] 2017/01/10(火) 01:27:47.53 ID:N/5FQeNb おまいらマジで頭よかったんだな てっきり知能ポエムしか書けない連中だと見下してたわ http://echo.5ch.net/test/read.cgi/tech/1482227795/575
576: デフォルトの名無しさん [sage] 2017/01/10(火) 01:31:09.96 ID:N74TPYKx つまり、オートエンコーダは、異なる入力に対して異なる結果になるように重り行列を最適化する。 (多数の入力が同じ結果にならないように最適化) オートエンコーダで次元を下げるとかっていう話は実は二の次の話。 http://echo.5ch.net/test/read.cgi/tech/1482227795/576
577: デフォルトの名無しさん [sage] 2017/01/10(火) 01:38:22.11 ID:N74TPYKx 上の情報だけで、つまりって言っちゃ、やや飛躍があるな。 共分散行列の固有ベクトルがはる空間 に入力ベクトルを持ってくることで上手くベクトルが分散してくれる http://echo.5ch.net/test/read.cgi/tech/1482227795/577
578: デフォルトの名無しさん [sage] 2017/01/10(火) 01:53:41.11 ID:/W/3Nfpm 畳み込みニューラルネットワークのフィルタってサイズの大きさどう設定すりゃいいの? あと全結合層の層数って増やす意味ある? http://echo.5ch.net/test/read.cgi/tech/1482227795/578
579: デフォルトの名無しさん [sage] 2017/01/10(火) 06:52:44.79 ID:Lw+Ts/nh >>577 固有値の大きな固有ベクトルから順に得られるかどうか判らないのでは? http://echo.5ch.net/test/read.cgi/tech/1482227795/579
580: デフォルトの名無しさん [sage] 2017/01/10(火) 07:36:02.51 ID:N74TPYKx ? 質問がよく分からない どんな状況下にあるか、自分で手を動かして考えてみてください http://echo.5ch.net/test/read.cgi/tech/1482227795/580
581: デフォルトの名無しさん [sage] 2017/01/10(火) 08:32:52.11 ID:rVEdN69p いまどきの国立大以上の工学部では ディープラーニングの演習もあるのかしらん? http://echo.5ch.net/test/read.cgi/tech/1482227795/581
582: デフォルトの名無しさん [sage] 2017/01/10(火) 11:14:30.29 ID:/a9Ojlhv オートエンコーダは、非線形性があるところは違うだろ 一層毎に非線形性があるんだから、スタックする意味もあるし http://echo.5ch.net/test/read.cgi/tech/1482227795/582
583: デフォルトの名無しさん [sage] 2017/01/10(火) 11:59:53.15 ID:N74TPYKx >>582 それっていちいち突っ込むところ? 恒等写像の場合である程度重みの最適化の足掛かり掴んでるから十分だろ? 文句があるならカーネル関数使った主成分分析方法があるからそれ使え。 http://echo.5ch.net/test/read.cgi/tech/1482227795/583
584: デフォルトの名無しさん [sage] 2017/01/10(火) 12:24:27.91 ID:VX/m3eLk >>583 主成分分析しか知らないって言えばいいのにwww http://echo.5ch.net/test/read.cgi/tech/1482227795/584
585: デフォルトの名無しさん [sage] 2017/01/10(火) 12:26:57.52 ID:K8NZx8C0 だいたい積層オートエンコーダを質問してるのに、何で延々と主成分分析の話しをしてるんだか w 積層オートエンコーダ == 主成分分析 では断じてないことさえ分からんのかw http://echo.5ch.net/test/read.cgi/tech/1482227795/585
586: デフォルトの名無しさん [sage] 2017/01/10(火) 12:28:15.08 ID:N74TPYKx 何かろくに理論知らないクズ野郎しかしいないって思いたくないんだが‥‥ (そもそもこっちはただのサラリーマンだし) http://echo.5ch.net/test/read.cgi/tech/1482227795/586
587: デフォルトの名無しさん [sage] 2017/01/10(火) 12:29:38.43 ID:BtJxF5z4 >>580 寄与率の大きな固有ベクトルから順に結合として得られる保証があるのかってこと 固有ベクトルの個数は隠れ層のユニット数だろうけど それが寄与率の大きなものから順に得られるのか? http://echo.5ch.net/test/read.cgi/tech/1482227795/587
588: デフォルトの名無しさん [sage] 2017/01/10(火) 12:32:59.59 ID:N74TPYKx ハイハイ分かった分かった オートエンコーダ経由での物理現象の説明はこっちはわかりません。 自分で調べてください。 ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ http://echo.5ch.net/test/read.cgi/tech/1482227795/588
589: デフォルトの名無しさん [sage] 2017/01/10(火) 12:39:37.42 ID:K8NZx8C0 >>588 これ、笑うところ?www | ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ http://echo.5ch.net/test/read.cgi/tech/1482227795/589
590: デフォルトの名無しさん [sage] 2017/01/10(火) 12:41:56.72 ID:VX/m3eLk >>588 表面しか見れないんだな。 deep learning は全然知らないと言えばいいのに http://echo.5ch.net/test/read.cgi/tech/1482227795/590
591: デフォルトの名無しさん [sage] 2017/01/10(火) 12:43:02.69 ID:N74TPYKx 単独で中間層のユニット数減らすだけ! http://echo.5ch.net/test/read.cgi/tech/1482227795/591
592: デフォルトの名無しさん [sage] 2017/01/10(火) 12:44:08.26 ID:N74TPYKx そもそも>>570でなんで積層にしてるかいてるでしょ http://echo.5ch.net/test/read.cgi/tech/1482227795/592
593: デフォルトの名無しさん [sage] 2017/01/10(火) 12:48:34.70 ID:N74TPYKx あーこんな頭の悪いやつのせいで昼休み無駄になった http://echo.5ch.net/test/read.cgi/tech/1482227795/593
594: デフォルトの名無しさん [sage] 2017/01/10(火) 13:30:06.45 ID:s989ZmsY 最終的且つ不可逆的な解決に向け相互努力を誓います http://echo.5ch.net/test/read.cgi/tech/1482227795/594
595: デフォルトの名無しさん [sage] 2017/01/10(火) 13:44:18.27 ID:s989ZmsY >>571 おまえは何を言っているのだ? 主成分分析なんて固有値や固有ベクトルそのものだろ http://echo.5ch.net/test/read.cgi/tech/1482227795/595
596: デフォルトの名無しさん [sage] 2017/01/10(火) 13:53:31.34 ID:a6nVb6Xo 昼休みこんなところで鬱憤を晴らすサラリーマンねぇ 仕事できる子なのか不安 http://echo.5ch.net/test/read.cgi/tech/1482227795/596
597: デフォルトの名無しさん [sage] 2017/01/10(火) 14:52:03.64 ID:HuxjibLD バックグラウンドの数学的な話はわかって無くてなんとなくで使っているのですが WekaでBayesnetを使ってクラス分類をしているのですが、 理想よりだいぶ正解率が低いので、その原因を知りたいと思っています (どの変数が悪影響を及ぼしてるのかとか) そのようなことは可能でしょうか? また、「ガウス分布に当てはめれば分類モデルの誤差が見積もれる」 みたいな話を聞いたことがあるのですが、これはどういうことでしょうか? http://echo.5ch.net/test/read.cgi/tech/1482227795/597
598: デフォルトの名無しさん [sage] 2017/01/10(火) 15:06:26.74 ID:UBJKCQag 無の字の使い方を学習させると 誰が自演書き込みしてるのか判るな http://echo.5ch.net/test/read.cgi/tech/1482227795/598
599: デフォルトの名無しさん [sage] 2017/01/10(火) 15:08:08.34 ID:BtJxF5z4 >>598 正解率はどのくらいか判ってるのか http://echo.5ch.net/test/read.cgi/tech/1482227795/599
600: デフォルトの名無しさん [sage] 2017/01/10(火) 15:11:49.90 ID:BtJxF5z4 >>595 理解できてないならレスしなくて良い http://echo.5ch.net/test/read.cgi/tech/1482227795/600
601: デフォルトの名無しさん [sage] 2017/01/10(火) 21:55:01.12 ID:5Ydwym5y >>597 じゃあ使うなまず数学やれよ 数学やらない奴は使うなよ http://echo.5ch.net/test/read.cgi/tech/1482227795/601
602: デフォルトの名無しさん [sage] 2017/01/10(火) 23:19:51.15 ID:6tVxUfvD >>587に誰か答えないんかな? 画像認識やったことないからフィルターサイズの決め方なんて知らない。 認識したい対象(文字とか?)のサイズとか、どこまでエッジを拾いたいかで決めんのかね? (あるいはサイズ違いのフィルターを繰り返す?) http://echo.5ch.net/test/read.cgi/tech/1482227795/602
603: デフォルトの名無しさん [sage] 2017/01/10(火) 23:23:42.42 ID:6tVxUfvD 失礼しました >>587でなく>>578です http://echo.5ch.net/test/read.cgi/tech/1482227795/603
604: デフォルトの名無しさん [sage] 2017/01/11(水) 05:53:27.99 ID:W9WOgN09 >>602 ここでレスがあったとしても本当の事か判らない 実際に確かめてみるしかない サイズを変えてデータを取って分析しろ データ分析くらいできるのだろ http://echo.5ch.net/test/read.cgi/tech/1482227795/604
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 398 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.020s