[過去ログ]
【統計分析】機械学習・データマイニング11 [無断転載禁止]©2ch.net (1002レス)
【統計分析】機械学習・データマイニング11 [無断転載禁止]©2ch.net http://echo.5ch.net/test/read.cgi/tech/1482227795/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
563: デフォルトの名無しさん [sage] 2017/01/09(月) 20:19:01.26 ID:JP3B1fld 積層の理解なんていらない。 主成分分析との関係がわかれば十分。 というか、主成分分析をほうを理解すればよい。あるいは主成分分析のコードを書いてみたり、その結果から次数さげてみたり。 http://echo.5ch.net/test/read.cgi/tech/1482227795/563
564: デフォルトの名無しさん [sage] 2017/01/09(月) 20:56:05.81 ID:cjVtQucR >>563 本当に? ディープラーニングとはどう関係するの? http://echo.5ch.net/test/read.cgi/tech/1482227795/564
565: デフォルトの名無しさん [sage] 2017/01/09(月) 22:18:36.36 ID:ZM3HJLmM >>564 DBNとPCAの関係考えれば自明だろ http://echo.5ch.net/test/read.cgi/tech/1482227795/565
566: デフォルトの名無しさん [sage] 2017/01/09(月) 22:41:52.00 ID:RbIvkBFq >>564 真に受けるな、次元圧縮という視点だけで同一視してる極論。そもそも線形だし http://echo.5ch.net/test/read.cgi/tech/1482227795/566
567: デフォルトの名無しさん [sage] 2017/01/09(月) 23:32:06.28 ID:cjVtQucR RBMだろ http://echo.5ch.net/test/read.cgi/tech/1482227795/567
568: デフォルトの名無しさん [sage] 2017/01/10(火) 00:08:27.84 ID:N74TPYKx >>566 オートエンコーダで完全に入出力が一致すれば主成分分析と結果一致するのは数学的に証明されてるのに、何故否定?? ちゃんと理解したうえで言ってる?? http://echo.5ch.net/test/read.cgi/tech/1482227795/568
569: デフォルトの名無しさん [sage] 2017/01/10(火) 00:18:55.31 ID:N74TPYKx >>567 目的は一緒だが、やってることは違う http://echo.5ch.net/test/read.cgi/tech/1482227795/569
570: デフォルトの名無しさん [sage] 2017/01/10(火) 00:57:02.71 ID:mL71GP1A オートエンコーダで積層にしているのは 2層だけだと収束が悪いので多層にしてるだけ。 ディープラーニングのメインコードとはもともと関係がない。 普通のオートエンコーダを理解すれば十分だけど、 >>563の言うとおり、条件を限定すれば オートエンコーダの結果は主成分分析と一致する。 主成分分析の性質を理解することがオートエンコーダの理解に繋がる。 566は論外。 http://echo.5ch.net/test/read.cgi/tech/1482227795/570
571: デフォルトの名無しさん [sage] 2017/01/10(火) 01:06:43.42 ID:Lw+Ts/nh >>570 主成分分析の何と一致する? 固有値や固有ベクトルは? http://echo.5ch.net/test/read.cgi/tech/1482227795/571
572: デフォルトの名無しさん [sage] 2017/01/10(火) 01:18:00.94 ID:N74TPYKx 訓練データ{x1,x2,...}の共分散行列を作って、得られた固有ベクトルを並べたて格納した行列を新しい重み行列とすると、それはオートエンコーダで得られた重みと理論的には一致する。 共分散行列の固有値は次元の寄与率と考えることができて、小さい値の固有値の固有ベクトルは削除しても影響が小さい。 http://echo.5ch.net/test/read.cgi/tech/1482227795/572
573: デフォルトの名無しさん [sage] 2017/01/10(火) 01:21:19.35 ID:N74TPYKx てかそんぐらいググればいくらでも出てくる http://echo.5ch.net/test/read.cgi/tech/1482227795/573
574: デフォルトの名無しさん [sage] 2017/01/10(火) 01:22:37.28 ID:N74TPYKx 失礼。 聞かれたのは俺じゃないな http://echo.5ch.net/test/read.cgi/tech/1482227795/574
575: デフォルトの名無しさん [sage] 2017/01/10(火) 01:27:47.53 ID:N/5FQeNb おまいらマジで頭よかったんだな てっきり知能ポエムしか書けない連中だと見下してたわ http://echo.5ch.net/test/read.cgi/tech/1482227795/575
576: デフォルトの名無しさん [sage] 2017/01/10(火) 01:31:09.96 ID:N74TPYKx つまり、オートエンコーダは、異なる入力に対して異なる結果になるように重り行列を最適化する。 (多数の入力が同じ結果にならないように最適化) オートエンコーダで次元を下げるとかっていう話は実は二の次の話。 http://echo.5ch.net/test/read.cgi/tech/1482227795/576
577: デフォルトの名無しさん [sage] 2017/01/10(火) 01:38:22.11 ID:N74TPYKx 上の情報だけで、つまりって言っちゃ、やや飛躍があるな。 共分散行列の固有ベクトルがはる空間 に入力ベクトルを持ってくることで上手くベクトルが分散してくれる http://echo.5ch.net/test/read.cgi/tech/1482227795/577
578: デフォルトの名無しさん [sage] 2017/01/10(火) 01:53:41.11 ID:/W/3Nfpm 畳み込みニューラルネットワークのフィルタってサイズの大きさどう設定すりゃいいの? あと全結合層の層数って増やす意味ある? http://echo.5ch.net/test/read.cgi/tech/1482227795/578
579: デフォルトの名無しさん [sage] 2017/01/10(火) 06:52:44.79 ID:Lw+Ts/nh >>577 固有値の大きな固有ベクトルから順に得られるかどうか判らないのでは? http://echo.5ch.net/test/read.cgi/tech/1482227795/579
580: デフォルトの名無しさん [sage] 2017/01/10(火) 07:36:02.51 ID:N74TPYKx ? 質問がよく分からない どんな状況下にあるか、自分で手を動かして考えてみてください http://echo.5ch.net/test/read.cgi/tech/1482227795/580
581: デフォルトの名無しさん [sage] 2017/01/10(火) 08:32:52.11 ID:rVEdN69p いまどきの国立大以上の工学部では ディープラーニングの演習もあるのかしらん? http://echo.5ch.net/test/read.cgi/tech/1482227795/581
582: デフォルトの名無しさん [sage] 2017/01/10(火) 11:14:30.29 ID:/a9Ojlhv オートエンコーダは、非線形性があるところは違うだろ 一層毎に非線形性があるんだから、スタックする意味もあるし http://echo.5ch.net/test/read.cgi/tech/1482227795/582
583: デフォルトの名無しさん [sage] 2017/01/10(火) 11:59:53.15 ID:N74TPYKx >>582 それっていちいち突っ込むところ? 恒等写像の場合である程度重みの最適化の足掛かり掴んでるから十分だろ? 文句があるならカーネル関数使った主成分分析方法があるからそれ使え。 http://echo.5ch.net/test/read.cgi/tech/1482227795/583
584: デフォルトの名無しさん [sage] 2017/01/10(火) 12:24:27.91 ID:VX/m3eLk >>583 主成分分析しか知らないって言えばいいのにwww http://echo.5ch.net/test/read.cgi/tech/1482227795/584
585: デフォルトの名無しさん [sage] 2017/01/10(火) 12:26:57.52 ID:K8NZx8C0 だいたい積層オートエンコーダを質問してるのに、何で延々と主成分分析の話しをしてるんだか w 積層オートエンコーダ == 主成分分析 では断じてないことさえ分からんのかw http://echo.5ch.net/test/read.cgi/tech/1482227795/585
586: デフォルトの名無しさん [sage] 2017/01/10(火) 12:28:15.08 ID:N74TPYKx 何かろくに理論知らないクズ野郎しかしいないって思いたくないんだが‥‥ (そもそもこっちはただのサラリーマンだし) http://echo.5ch.net/test/read.cgi/tech/1482227795/586
587: デフォルトの名無しさん [sage] 2017/01/10(火) 12:29:38.43 ID:BtJxF5z4 >>580 寄与率の大きな固有ベクトルから順に結合として得られる保証があるのかってこと 固有ベクトルの個数は隠れ層のユニット数だろうけど それが寄与率の大きなものから順に得られるのか? http://echo.5ch.net/test/read.cgi/tech/1482227795/587
588: デフォルトの名無しさん [sage] 2017/01/10(火) 12:32:59.59 ID:N74TPYKx ハイハイ分かった分かった オートエンコーダ経由での物理現象の説明はこっちはわかりません。 自分で調べてください。 ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ http://echo.5ch.net/test/read.cgi/tech/1482227795/588
589: デフォルトの名無しさん [sage] 2017/01/10(火) 12:39:37.42 ID:K8NZx8C0 >>588 これ、笑うところ?www | ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ http://echo.5ch.net/test/read.cgi/tech/1482227795/589
590: デフォルトの名無しさん [sage] 2017/01/10(火) 12:41:56.72 ID:VX/m3eLk >>588 表面しか見れないんだな。 deep learning は全然知らないと言えばいいのに http://echo.5ch.net/test/read.cgi/tech/1482227795/590
591: デフォルトの名無しさん [sage] 2017/01/10(火) 12:43:02.69 ID:N74TPYKx 単独で中間層のユニット数減らすだけ! http://echo.5ch.net/test/read.cgi/tech/1482227795/591
592: デフォルトの名無しさん [sage] 2017/01/10(火) 12:44:08.26 ID:N74TPYKx そもそも>>570でなんで積層にしてるかいてるでしょ http://echo.5ch.net/test/read.cgi/tech/1482227795/592
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 410 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.016s