[過去ログ]
【統計分析】機械学習・データマイニング8©2ch.net (1002レス)
【統計分析】機械学習・データマイニング8©2ch.net http://echo.5ch.net/test/read.cgi/tech/1464586095/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
827: デフォルトの名無しさん [sage] 2016/07/22(金) 07:45:25.80 ID:VmM6tkI1 人工知能より魔法少女か http://echo.5ch.net/test/read.cgi/tech/1464586095/827
828: デフォルトの名無しさん [sage] 2016/07/22(金) 10:01:17.30 ID:moa2HzLH >>824 自己紹介はいいってw http://echo.5ch.net/test/read.cgi/tech/1464586095/828
829: デフォルトの名無しさん [sage] 2016/07/22(金) 12:16:22.48 ID:xDsBW3go >>825 各文字を絵から個々のそれに相当する単語に当てはめる過程と 単語を確定した後に文法に沿って文章全体から意味を取り出す過程は違うでしょ。 あんたが日常で一つの会話につき、1単語だけ発音して生活しているのなら別だけど http://echo.5ch.net/test/read.cgi/tech/1464586095/829
830: デフォルトの名無しさん [sage] 2016/07/22(金) 12:18:23.16 ID:xHSaCyP0 >>829 同じだよ http://echo.5ch.net/test/read.cgi/tech/1464586095/830
831: デフォルトの名無しさん [] 2016/07/22(金) 12:22:25.58 ID:TIRA9iEO 2次元の個々の輝度情報から全体に相当する単語を当てはめる過程と 1次元の個々の単語情報から全文に相当する意味を当てはめる過程は似ている という仮定も成り立つ http://echo.5ch.net/test/read.cgi/tech/1464586095/831
832: デフォルトの名無しさん [sage] 2016/07/22(金) 14:16:30.27 ID:F4mQCKU+ こいつは馬鹿という仮定は成り立つ http://echo.5ch.net/test/read.cgi/tech/1464586095/832
833: デフォルトの名無しさん [] 2016/07/22(金) 23:29:37.07 ID:1AK5T1oz >>831 人間の脳が処理領域によって大きく構造を変えることができないと思うと 共通する処理が多くなるのは予想できる 実際、自然言語処理に画像処理の手法を用いた例は挙げればキリがないと思う ただ、違うところも多々あると思う 1. 両者は対象とする問題が異なる 自分は英語の文字を判別できるけど内容は理解できない 画像処理としては百点だけど自然言語処理としては零点だよ 2. ピクセル値に意味あるけどUTF-8の値に意味はない 256値のグレースケールで123と125は似ていると感じる人は多いけど アルファベットのaとcは似ていると感じる人は少ない グレースケールで123と125の平均をとって124とするのは意味があるけど アルファベットのaとcの平均をとってbとするのは大抵意味がない 自然言語の場合、ピクセルに相当するものがあるのか? あるならばナンジャラホイというだけで難しい気がする >>176,513,652 はそれぞれの方法で単語間の距離を定めているように見える http://echo.5ch.net/test/read.cgi/tech/1464586095/833
834: デフォルトの名無しさん [sage] 2016/07/23(土) 03:49:10.93 ID:XlHlwt0X 少しだけでも勉強するといいんじゃないか… そういえば、BP の的外れな書き込みはなくなったな http://echo.5ch.net/test/read.cgi/tech/1464586095/834
835: デフォルトの名無しさん [] 2016/07/23(土) 10:28:56.10 ID:xhKfKXsq みんなライブラリでoptimizeしてるだけになったから http://echo.5ch.net/test/read.cgi/tech/1464586095/835
836: デフォルトの名無しさん [sage] 2016/07/23(土) 12:00:39.00 ID:6lYjBmg5 >>833 ネアンデルタール人は社会的学習能力は劣らないが 現代人に比べて個性的学習能力が劣るらしい http://echo.5ch.net/test/read.cgi/tech/1464586095/836
837: デフォルトの名無しさん [sage] 2016/07/23(土) 12:02:48.86 ID:TmMz3ALX >>833 アルファベットで書かれた文章を見て 英語なのかドイツ語なのかフランス語なのかイタリア語なのかスペイン語なのか ローマ字なのかどうやったら区別できると思う? 各文字の出現頻度の平均は意味があると思う http://echo.5ch.net/test/read.cgi/tech/1464586095/837
838: デフォルトの名無しさん [sage] 2016/07/23(土) 16:57:23.28 ID:qvOEX40T 俺様が参入してやるか http://echo.5ch.net/test/read.cgi/tech/1464586095/838
839: デフォルトの名無しさん [] 2016/07/23(土) 21:42:58.74 ID:KzKU6eO/ >>837 はユニグラムの例だけどその仲間を挙げてみる Aは有限集合、Rは実数の集合 A^nはAの元を文字とする長さnの文字列の集合(直積) A^*はAの元を文字とする任意長の文字列の集合(自由モノイド) RXは集合Xの元を基底とする実数上のベクトル空間(自由ベクトル空間) ユニグラム = バッグオブA : A^* -> RA abbca -> 2a + 2b + c バイグラム: A^* -> RA^2 abbca -> ab + bb + bc + ca スキップグラム: A^* -> (RA, RA)のテンソル積 = RA^2 abbca -> a(2b) + b(a + b + c) + b(2a + b + c) + c(a + 2b) + a(b + c) = 3ab + ac + 3ba + 2bb + 2bc + ca + 2cb 富豪グラム: A^* -> RA^* abbca -> 2a +...+ c + ab +...+ ca + abb +...+ bca +... 計算間違いしてたらゴメン http://echo.5ch.net/test/read.cgi/tech/1464586095/839
840: デフォルトの名無しさん [] 2016/07/23(土) 22:08:00.39 ID:KzKU6eO/ 間違えちゃった スキップグラムではなくてウィンドウサイズ2のスキップグラムもどき スキップグラムの文脈の部分ををバッグオブしたもの キリがないので間違えを見つけてももう書きません http://echo.5ch.net/test/read.cgi/tech/1464586095/840
841: デフォルトの名無しさん [] 2016/07/24(日) 01:11:07.97 ID:JffbOgIb ディープラーニングによる画像認識において 隣接するピクセルの情報つまり局所特徴は初めのほうの層で考慮されているのでは? 同様に自然言語処理でも入力層でいきなりnグラムを突っ込まなくてもいい気がする 突っ込んでもいいけど http://echo.5ch.net/test/read.cgi/tech/1464586095/841
842: デフォルトの名無しさん [sage] 2016/07/24(日) 01:14:00.53 ID:lGJdy9QK CNNによる自然言語処理とかすでにやられてますね http://echo.5ch.net/test/read.cgi/tech/1464586095/842
843: デフォルトの名無しさん [] 2016/07/24(日) 05:36:01.45 ID:LQ7Kwo+c C言語で人工知能作りたい! http://oshiete.goo.ne.jp/qa/9353856.html http://echo.5ch.net/test/read.cgi/tech/1464586095/843
844: デフォルトの名無しさん [] 2016/07/24(日) 12:24:48.60 ID:UYHayHlQ Cはクラスがないから地獄だ http://echo.5ch.net/test/read.cgi/tech/1464586095/844
845: デフォルトの名無しさん [] 2016/07/24(日) 13:23:15.67 ID:wdZTIji9 構造体に関数テーブル持てばクラスとして使えるしそこはそれほど地獄ではない http://echo.5ch.net/test/read.cgi/tech/1464586095/845
846: デフォルトの名無しさん [sage] 2016/07/24(日) 13:29:06.68 ID:WlpMf7aL XViewもあったし http://echo.5ch.net/test/read.cgi/tech/1464586095/846
847: デフォルトの名無しさん [sage] 2016/07/24(日) 13:29:19.81 ID:YEnNVMAZ 素人プログラマ向けのスレかよw http://echo.5ch.net/test/read.cgi/tech/1464586095/847
848: デフォルトの名無しさん [sage] 2016/07/24(日) 14:22:04.15 ID:dSIegEe0 別にコホーネンを暑く語っても良いのよ http://echo.5ch.net/test/read.cgi/tech/1464586095/848
849: デフォルトの名無しさん [sage] 2016/07/24(日) 16:05:54.39 ID:1uU2ve1S 連想記憶は進化してるの? http://echo.5ch.net/test/read.cgi/tech/1464586095/849
850: デフォルトの名無しさん [] 2016/07/24(日) 19:55:01.31 ID:UYHayHlQ >>845 コンストラクタとデストラクタはどうすんの? http://echo.5ch.net/test/read.cgi/tech/1464586095/850
851: デフォルトの名無しさん [sage] 2016/07/24(日) 19:56:55.02 ID:3YDRUQTp malloc と free に決まってるだろ 言わせんな恥ずかしい http://echo.5ch.net/test/read.cgi/tech/1464586095/851
852: デフォルトの名無しさん [sage] 2016/07/24(日) 20:09:31.95 ID:GWPH5NVc wwww http://echo.5ch.net/test/read.cgi/tech/1464586095/852
853: デフォルトの名無しさん [] 2016/07/24(日) 21:03:44.12 ID:vG4gIeKF memset(ちらっ) >>360 ゲームネタ 巡回セールスマン問題をパックマンとみなして強化学習する(じふあにめ) Using Deep Learning to Optimize the "Traveling Salesman" Problem https://www.reddit.com/r/MachineLearning/comments/4u7z1h/using_deep_learning_to_optimize_the_traveling/ すてーとおぶざあーと(ゆーちゅーぶ) Deep Mind Playing Montezuma's Revenge with Intrinsic Motivation [video] https://news.ycombinator.com/item?id=11862027 二つ目にいたっては読むことははなからあきらめているし 一つ目も文字判定しただけなんだけど次のブログを思い出した: Mean field games https://terrytao.wordpress.com/2010/01/07/mean-field-equations/ ブログ内に勾配流からフォッカープランクの導出は書いてある 蛇足だけど最後にシュレディンガー方程式を付け足すことができる 勾配流 -> ランジュバン -> フォッカープランク -> シュレディンガー 勾配流にガウシアンで乱歩の要素を入れるとランジュバン方程式になり ランジュバン方程式を通常の偏微分に書き直すとフォッカープランク方程式になり フォッカープランク方程式をゲージ変換すると(ユークリディアン)シュレディンガー方程式になる 強化学習は扱う問題が複雑なので敬遠してきたけど Q-学習に限らず強化学習は孤立した技術ではないんだろうなと思いました(かしこ) http://echo.5ch.net/test/read.cgi/tech/1464586095/853
854: デフォルトの名無しさん [sage] 2016/07/24(日) 21:24:51.21 ID:5J1ShuAC >>360 何を今更、ずっと応用され続けてるじゃん ゲームAIとして、つか一番使われてきたジャンルでしょうに http://echo.5ch.net/test/read.cgi/tech/1464586095/854
855: デフォルトの名無しさん [] 2016/07/24(日) 22:19:58.26 ID:vG4gIeKF このドキュメンタリーは深層学習とゲームの関わりを その誕生から現代に至るまでの激動の歴史の中を生き抜いた市井の人々の目を通し 現代のオタク達に生々しく伝える機械学習史に残る貴重な資料となっている "How to train an artificial neural network to play Diablo 2 using visual input?" A stack overflow question posted in 2011, then updated in 2012, 2015 and again in June 2016 with links to various technological breakthroughs in the field. https://www.reddit.com/r/MachineLearning/comments/4rskln/how_to_train_an_artificial_neural_network_to_play/ http://echo.5ch.net/test/read.cgi/tech/1464586095/855
856: デフォルトの名無しさん [sage] 2016/07/24(日) 23:31:36.48 ID:ceOEfSSG >>853 >蛇足だけど最後にシュレディンガー方程式を付け足すことができる >勾配流 -> ランジュバン -> フォッカープランク -> シュレディンガー 蛇足、ほんまやーw http://echo.5ch.net/test/read.cgi/tech/1464586095/856
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 146 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.019s