[過去ログ]
【統計分析】機械学習・データマイニング8©2ch.net (1002レス)
【統計分析】機械学習・データマイニング8©2ch.net http://echo.5ch.net/test/read.cgi/tech/1464586095/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
839: デフォルトの名無しさん [] 2016/07/23(土) 21:42:58.74 ID:KzKU6eO/ >>837 はユニグラムの例だけどその仲間を挙げてみる Aは有限集合、Rは実数の集合 A^nはAの元を文字とする長さnの文字列の集合(直積) A^*はAの元を文字とする任意長の文字列の集合(自由モノイド) RXは集合Xの元を基底とする実数上のベクトル空間(自由ベクトル空間) ユニグラム = バッグオブA : A^* -> RA abbca -> 2a + 2b + c バイグラム: A^* -> RA^2 abbca -> ab + bb + bc + ca スキップグラム: A^* -> (RA, RA)のテンソル積 = RA^2 abbca -> a(2b) + b(a + b + c) + b(2a + b + c) + c(a + 2b) + a(b + c) = 3ab + ac + 3ba + 2bb + 2bc + ca + 2cb 富豪グラム: A^* -> RA^* abbca -> 2a +...+ c + ab +...+ ca + abb +...+ bca +... 計算間違いしてたらゴメン http://echo.5ch.net/test/read.cgi/tech/1464586095/839
840: デフォルトの名無しさん [] 2016/07/23(土) 22:08:00.39 ID:KzKU6eO/ 間違えちゃった スキップグラムではなくてウィンドウサイズ2のスキップグラムもどき スキップグラムの文脈の部分ををバッグオブしたもの キリがないので間違えを見つけてももう書きません http://echo.5ch.net/test/read.cgi/tech/1464586095/840
841: デフォルトの名無しさん [] 2016/07/24(日) 01:11:07.97 ID:JffbOgIb ディープラーニングによる画像認識において 隣接するピクセルの情報つまり局所特徴は初めのほうの層で考慮されているのでは? 同様に自然言語処理でも入力層でいきなりnグラムを突っ込まなくてもいい気がする 突っ込んでもいいけど http://echo.5ch.net/test/read.cgi/tech/1464586095/841
842: デフォルトの名無しさん [sage] 2016/07/24(日) 01:14:00.53 ID:lGJdy9QK CNNによる自然言語処理とかすでにやられてますね http://echo.5ch.net/test/read.cgi/tech/1464586095/842
843: デフォルトの名無しさん [] 2016/07/24(日) 05:36:01.45 ID:LQ7Kwo+c C言語で人工知能作りたい! http://oshiete.goo.ne.jp/qa/9353856.html http://echo.5ch.net/test/read.cgi/tech/1464586095/843
844: デフォルトの名無しさん [] 2016/07/24(日) 12:24:48.60 ID:UYHayHlQ Cはクラスがないから地獄だ http://echo.5ch.net/test/read.cgi/tech/1464586095/844
845: デフォルトの名無しさん [] 2016/07/24(日) 13:23:15.67 ID:wdZTIji9 構造体に関数テーブル持てばクラスとして使えるしそこはそれほど地獄ではない http://echo.5ch.net/test/read.cgi/tech/1464586095/845
846: デフォルトの名無しさん [sage] 2016/07/24(日) 13:29:06.68 ID:WlpMf7aL XViewもあったし http://echo.5ch.net/test/read.cgi/tech/1464586095/846
847: デフォルトの名無しさん [sage] 2016/07/24(日) 13:29:19.81 ID:YEnNVMAZ 素人プログラマ向けのスレかよw http://echo.5ch.net/test/read.cgi/tech/1464586095/847
848: デフォルトの名無しさん [sage] 2016/07/24(日) 14:22:04.15 ID:dSIegEe0 別にコホーネンを暑く語っても良いのよ http://echo.5ch.net/test/read.cgi/tech/1464586095/848
849: デフォルトの名無しさん [sage] 2016/07/24(日) 16:05:54.39 ID:1uU2ve1S 連想記憶は進化してるの? http://echo.5ch.net/test/read.cgi/tech/1464586095/849
850: デフォルトの名無しさん [] 2016/07/24(日) 19:55:01.31 ID:UYHayHlQ >>845 コンストラクタとデストラクタはどうすんの? http://echo.5ch.net/test/read.cgi/tech/1464586095/850
851: デフォルトの名無しさん [sage] 2016/07/24(日) 19:56:55.02 ID:3YDRUQTp malloc と free に決まってるだろ 言わせんな恥ずかしい http://echo.5ch.net/test/read.cgi/tech/1464586095/851
852: デフォルトの名無しさん [sage] 2016/07/24(日) 20:09:31.95 ID:GWPH5NVc wwww http://echo.5ch.net/test/read.cgi/tech/1464586095/852
853: デフォルトの名無しさん [] 2016/07/24(日) 21:03:44.12 ID:vG4gIeKF memset(ちらっ) >>360 ゲームネタ 巡回セールスマン問題をパックマンとみなして強化学習する(じふあにめ) Using Deep Learning to Optimize the "Traveling Salesman" Problem https://www.reddit.com/r/MachineLearning/comments/4u7z1h/using_deep_learning_to_optimize_the_traveling/ すてーとおぶざあーと(ゆーちゅーぶ) Deep Mind Playing Montezuma's Revenge with Intrinsic Motivation [video] https://news.ycombinator.com/item?id=11862027 二つ目にいたっては読むことははなからあきらめているし 一つ目も文字判定しただけなんだけど次のブログを思い出した: Mean field games https://terrytao.wordpress.com/2010/01/07/mean-field-equations/ ブログ内に勾配流からフォッカープランクの導出は書いてある 蛇足だけど最後にシュレディンガー方程式を付け足すことができる 勾配流 -> ランジュバン -> フォッカープランク -> シュレディンガー 勾配流にガウシアンで乱歩の要素を入れるとランジュバン方程式になり ランジュバン方程式を通常の偏微分に書き直すとフォッカープランク方程式になり フォッカープランク方程式をゲージ変換すると(ユークリディアン)シュレディンガー方程式になる 強化学習は扱う問題が複雑なので敬遠してきたけど Q-学習に限らず強化学習は孤立した技術ではないんだろうなと思いました(かしこ) http://echo.5ch.net/test/read.cgi/tech/1464586095/853
854: デフォルトの名無しさん [sage] 2016/07/24(日) 21:24:51.21 ID:5J1ShuAC >>360 何を今更、ずっと応用され続けてるじゃん ゲームAIとして、つか一番使われてきたジャンルでしょうに http://echo.5ch.net/test/read.cgi/tech/1464586095/854
855: デフォルトの名無しさん [] 2016/07/24(日) 22:19:58.26 ID:vG4gIeKF このドキュメンタリーは深層学習とゲームの関わりを その誕生から現代に至るまでの激動の歴史の中を生き抜いた市井の人々の目を通し 現代のオタク達に生々しく伝える機械学習史に残る貴重な資料となっている "How to train an artificial neural network to play Diablo 2 using visual input?" A stack overflow question posted in 2011, then updated in 2012, 2015 and again in June 2016 with links to various technological breakthroughs in the field. https://www.reddit.com/r/MachineLearning/comments/4rskln/how_to_train_an_artificial_neural_network_to_play/ http://echo.5ch.net/test/read.cgi/tech/1464586095/855
856: デフォルトの名無しさん [sage] 2016/07/24(日) 23:31:36.48 ID:ceOEfSSG >>853 >蛇足だけど最後にシュレディンガー方程式を付け足すことができる >勾配流 -> ランジュバン -> フォッカープランク -> シュレディンガー 蛇足、ほんまやーw http://echo.5ch.net/test/read.cgi/tech/1464586095/856
857: デフォルトの名無しさん [] 2016/07/25(月) 00:44:25.62 ID:abn8f4RH >>856 この辺りに興味があればこの教科書にも導出が書いてあるよ データ学習アルゴリズム http://www.kyoritsu-pub.co.jp/bookdetail/9784320120051 使うことは滅多にないけど基礎的なことなので prml等の標準的な教科書にも載ってるかも http://echo.5ch.net/test/read.cgi/tech/1464586095/857
858: デフォルトの名無しさん [sage] 2016/07/25(月) 00:48:18.85 ID:+I9HxGs0 >>857 蛇足に興味を持つと思うの? http://echo.5ch.net/test/read.cgi/tech/1464586095/858
859: デフォルトの名無しさん [] 2016/07/25(月) 02:51:08.54 ID:h+Tb1M7H 3層NN カーゴカルトサイエンス 多層NN 科学 http://echo.5ch.net/test/read.cgi/tech/1464586095/859
860: デフォルトの名無しさん [] 2016/07/25(月) 07:34:05.23 ID:5C0zlV8o >>853 統計物理でドクター取って機械学習やってきたけど、最初に強化学習を知ったとき、 流体や粒子の代わりにQ値などの流れを見ているみたい、 という感想持ったから別にそんなに斬新な話じゃ無いと思う。 ただ、数式などが似ているからと言って二つのジャンルの架け橋と言い出す 人がいるけどそういう話は所々にギャップや地雷が含まれていることが多いから気をつけた方がいい http://echo.5ch.net/test/read.cgi/tech/1464586095/860
861: デフォルトの名無しさん [sage] 2016/07/25(月) 20:59:32.93 ID:mN12+o5A >>860 機械学習をくりこみ群としてみるのは無謀でしょうか? http://echo.5ch.net/test/read.cgi/tech/1464586095/861
862: デフォルトの名無しさん [sage] 2016/07/25(月) 21:21:09.38 ID:reWN8vEs >>861 横だけど、スキームにはまれば論文がかけるだろう http://echo.5ch.net/test/read.cgi/tech/1464586095/862
863: デフォルトの名無しさん [] 2016/07/25(月) 23:31:35.45 ID:abn8f4RH 間違えちゃった >>853 の最後のブログの変形は次ののもの hjb := ハミルトン-ヤコビ-ベルマン方程式 hjb -> viscous hjb -> フォッカープランク -> シュレディンガー hjbにガウシアン乱歩を入れてviscous-hjbにして viscous-hjbの集団を考えてフォッカープランクにする(多分ここがキモ) >>861 釣り針デカすぎ An exact mapping between the Variational Renormalization Group and Deep Learning http://arxiv.org/abs/1410.3831 http://echo.5ch.net/test/read.cgi/tech/1464586095/863
864: デフォルトの名無しさん [sage] 2016/07/26(火) 09:33:56.47 ID:fA4CEw6N で、なにがうれしいの? http://echo.5ch.net/test/read.cgi/tech/1464586095/864
865: デフォルトの名無しさん [sage] 2016/07/26(火) 09:41:33.46 ID:fA4CEw6N 学習はリーマン予想と同値です 俺の説 http://echo.5ch.net/test/read.cgi/tech/1464586095/865
866: デフォルトの名無しさん [sage] 2016/07/26(火) 10:16:38.75 ID:74n3BULz 無理やり機械学習にからめて、少しでも評価されたいんだろw http://echo.5ch.net/test/read.cgi/tech/1464586095/866
867: デフォルトの名無しさん [sage] 2016/07/26(火) 10:47:05.73 ID:wBmv5iKI ブームに乗っかりたい、という気持ちは分からんでもないが http://echo.5ch.net/test/read.cgi/tech/1464586095/867
868: デフォルトの名無しさん [] 2016/07/26(火) 12:27:15.60 ID:iWXW29be 機械学習の数学的な根拠を求めた研究ってこと? http://echo.5ch.net/test/read.cgi/tech/1464586095/868
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 134 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.022s