[過去ログ]
【統計分析】機械学習・データマイニング12©2ch.net (1002レス)
【統計分析】機械学習・データマイニング12©2ch.net http://echo.5ch.net/test/read.cgi/tech/1485008808/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
15: デフォルトの名無しさん [] 2017/01/22(日) 17:26:33.93 ID:RWAmR0t+ そうそうタダの割り算だよ、まあ掛け算でも同じことになるんだろうけど タダの掛け算・割り算をニューラルネットワークでやるのに、なんかいい方法ないかな? http://echo.5ch.net/test/read.cgi/tech/1485008808/15
39: デフォルトの名無しさん [] 2017/01/22(日) 23:57:24.67 ID:2nGClj4f >>15 掛け算だけど極限操作を許容すればドンピシャで一発回答 Why does deep and cheap learning work so well? https://arxiv.org/abs/1608.08225 p.4 Continuous input variables ここでの記号でXa * Xbの例がイラスト付きで例に挙げられてる 論文中の記号でシグマと書いている関数を原点近傍でテイラー展開しているので 割り算にはそのままでは適用できないけど手がかりが掴めればと思う 論文の著者が直接くおーらで回答しているのは以前リンクを貼っといた http://echo.5ch.net/test/read.cgi/tech/1485008808/39
73: デフォルトの名無しさん [] 2017/01/24(火) 10:54:16.64 ID:eNQkhgOl (x1, y1, 1), (x2, y2, 1), …, (xi, yi, 1), …, (xn, yn, 1) (u1, v1, -1), (u2, v2, -1), …, (ui, vi, -1), …, (um, vm, 1) というデータが与えられているとする。 未来に与えられるデータ (a1, b1, l1), (a2, b2, l2), …, (ai, bi, li), … の li が 1 なのか -1 なのか予測したい。 この問題を機械学習で解決するのに、なぜ、α, β, γを適当に決めて、 α*ai + β*bi + γ > 0 ならば li = 1 α*ai + β*bi + γ < 0 ならば li = -1 と予測するというような方法をとることがあるのでしょうか? xi, yi, ui, vi の分布が正規分布だと仮定して、 (x = ai のときの確率密度関数の値) * (y = bi のときの確率密度関数の値) と (u = ai のときの確率密度関数の値) * (v = bi のときの確率密度関数の値) の大小を比較して、大きいほうのグループに属すると判定するというような 方法を誰でも最初に思いつくのではないかと思うのですが。 http://echo.5ch.net/test/read.cgi/tech/1485008808/73
86: デフォルトの名無しさん [sage] 2017/01/24(火) 13:28:21.55 ID:uQjLcZ8g 線形カーネルだと何層重ねても単層と変わらないよ と言いつつ線形関数の折り曲げ版であるReluがなぜ問題ないのかわからない http://echo.5ch.net/test/read.cgi/tech/1485008808/86
145: デフォルトの名無しさん [sage] 2017/01/26(木) 07:21:12.81 ID:PobJ+xli Google翻訳のアプリはすごいな スマホカメラに写ってる文字が自動翻訳され、そのまま置き換わって写ってるんだぜ Deep learning 恐るべき http://echo.5ch.net/test/read.cgi/tech/1485008808/145
199: デフォルトの名無しさん [sage] 2017/01/28(土) 02:14:53.95 ID:BCr/Oho6 >>195 Deep Learning framework速度比較 http://mscorpmedia.azureedge.net/mscorpmedia/2016/01/cntk-speed-comparison.png https://qiita-image-store.s3.amazonaws.com/0/38290/bb09ac09-70a7-db38-b153-286ddf34cc36.png Distributed TensorFlowの話 http://qiita.com/kazunori279/items/981a8a2a44f5d1172856 TensorFlowが遅い事は以前から指摘されていた。 そしてGoogle以外はGoogleのJupiterネットワークを使えない。 http://echo.5ch.net/test/read.cgi/tech/1485008808/199
201: デフォルトの名無しさん [sage] 2017/01/28(土) 02:29:29.55 ID:lAN98u4l >>198 何だかなぁ。5倍以上というけど、Chainer 以外のフレームワークのコードが 32ノード/128GPU に最適化されているとはとても思えないんだが? あと、さくらのクラスタは 32ノード/128GPU でお幾らなの?初期化コストも含めてな。現実的なの? >>199 TensorFlow はマイナーバージョンアップ毎に高速化してるよ。 http://echo.5ch.net/test/read.cgi/tech/1485008808/201
210: デフォルトの名無しさん [sage] 2017/01/28(土) 08:57:40.55 ID:CMqXCA8h >>197 >>204 母国語で読めるというのは高いアベレージなのにね。 それにユーザーのメモ帳のようなブログ記事に任せずに 公式本や資料を充実させればいいのに。 もしくは相手がやっていないJavaやC/C++版も充実させるとか。 あそこは初学者でも何でも積極的に広めようというより いいのを作れば意識高い人が使って自然に広まるという考えなんだろうけど。 閉じた研究グループ活動ならともかく商売なのに下手なやり方よね。 http://echo.5ch.net/test/read.cgi/tech/1485008808/210
228: デフォルトの名無しさん [sage] 2017/01/29(日) 11:39:08.60 ID:UPfWW/c8 機械学習マンは統計学の用語をわざわざ格好いいものに置き換えているのは気のせいだろうか 回帰・分類 → 教師あり学習 説明変数 → 特徴量 応答変数 → ラベル http://echo.5ch.net/test/read.cgi/tech/1485008808/228
333: デフォルトの名無しさん [sage] 2017/02/03(金) 16:45:24.28 ID:fuOx2c+7 Pythonにやられっぱなしだったけどデータサイエンス分野でのRubyの逆襲が始まった http://www.s-itoc.jp/report/reaserch_results/439 http://echo.5ch.net/test/read.cgi/tech/1485008808/333
334: デフォルトの名無しさん [] 2017/02/03(金) 17:55:54.58 ID:CmWPA7NT 新聞にSOINN はプログラムするのではなく、データを与えることで自ら育つ人工知能です。 ノイズが混入したデータであっても、そのまま学習データとして活用できます。 と書いているのですが何故このスレで話題にならないのですか http://echo.5ch.net/test/read.cgi/tech/1485008808/334
369: デフォルトの名無しさん [sage] 2017/02/05(日) 12:24:23.72 ID:5OlxdBIJ >>334 はっきり言って実績が少なすぎる。 取り上げるほどのものではない。 既存の手法より優れているかどうかの理論的なあとづけがない、かつ、ほんの数人しか手を付けてなく実行例が少ない段階なのに勝手にマスコミが取り上げて騒いでるだけ。 http://echo.5ch.net/test/read.cgi/tech/1485008808/369
392: デフォルトの名無しさん [sage] 2017/02/05(日) 16:44:33.90 ID:CY/qlqbs すみません 本格的に無知なので定番のやつと言われても分かりません どのページあるのか教えていただけますか??? http://echo.5ch.net/test/read.cgi/tech/1485008808/392
419: デフォルトの名無しさん [sage] 2017/02/06(月) 10:41:02.27 ID:JcpLqgVq 時系列データのコンテストってあんの? http://echo.5ch.net/test/read.cgi/tech/1485008808/419
451: デフォルトの名無しさん [sage] 2017/02/07(火) 12:01:11.19 ID:DrDEvIw0 >>450 chainerとかtensorflowとかを使う人が増えると それらを開発した会社はどんな金儲けができるの? 後に有償化とかサポート料とるとか? コンサルみたいな事をやるとか? コンサルは自前のライブラリじゃなくても良くね? http://echo.5ch.net/test/read.cgi/tech/1485008808/451
489: デフォルトの名無しさん [sage] 2017/02/08(水) 19:47:38.69 ID:R/FUqnhp ロボット研究なんですが、機械学習ってこれから需要あると思いますか? 用途絞った汎用品ならライブラリ既にありますよね特に認識系 本職のデータサイエンティストが自作したのより、後に出た汎用オープンソースの方が精度高いとか普通みたいですし 組み込み系か、機械学習どっち担当するか選ばないといけないのですが 組み込みのが潰しが効きそうな気がしてます http://echo.5ch.net/test/read.cgi/tech/1485008808/489
657: デフォルトの名無しさん [sage] 2017/02/12(日) 10:18:42.82 ID:siqk/GyZ >>201 TensorFlow分散環境が他のフレームワークより数倍遅いのはgRPCが遅いからだそうだ。 gRPC高速化パッチが登場したが変更点が多すぎて安定版にすぐにマージできない。 ChainerMN による分散深層学習の性能について https://research.preferred.jp/2017/02/chainermn-benchmark-results/ grpc RecvTensor is slow https://github.com/tensorflow/tensorflow/issues/6116 http://echo.5ch.net/test/read.cgi/tech/1485008808/657
684: デフォルトの名無しさん [sage] 2017/02/12(日) 22:16:33.29 ID:+KIYndDJ 機械学習ってさもはやプログラミングじゃなくて 要素とパラメータをいじって、精度がー精度がーっていう 作業でしょ? http://echo.5ch.net/test/read.cgi/tech/1485008808/684
736: デフォルトの名無しさん [] 2017/02/14(火) 14:40:45.97 ID:w8AVSLfp 誰かがdynamic computation graphをchainerで実装するだけだろ なにが瞬殺なのかわからん http://echo.5ch.net/test/read.cgi/tech/1485008808/736
817: デフォルトの名無しさん [] 2017/02/16(木) 15:42:01.13 ID:YXBOe5iy いい意味でhackerだから自分の腕で対抗してみたいんでしょ http://echo.5ch.net/test/read.cgi/tech/1485008808/817
822: デフォルトの名無しさん [sage] 2017/02/16(木) 16:24:04.15 ID:rGWDv0Eb 日本の科学技術って、常に常時欧米の後追いじゃないの? 最近じゃ中国の後ろを走らされてる気もするけど・・・・ http://echo.5ch.net/test/read.cgi/tech/1485008808/822
867: デフォルトの名無しさん [] 2017/02/17(金) 10:23:53.32 ID:C4Hkh8Hg chainer憎しの人は何なんだろう 別にchainerが存在してもいいと思うのに http://echo.5ch.net/test/read.cgi/tech/1485008808/867
880: デフォルトの名無しさん [sage] 2017/02/17(金) 17:58:44.09 ID:zgDgwzIu >>874 Python以外サポートしないChainerがシェアを取ると主張するなら信者だね。 でもChainerはPythonだけで新種のNNを簡単に実装できるからNN研究に向いている。 Qiitaの論文解説記事で実装もしている場合は大抵Chainer実装だ。 アルゴリズムを知りたい人と応用が目的の人で好き嫌いが分かれるのでは? http://echo.5ch.net/test/read.cgi/tech/1485008808/880
939: デフォルトの名無しさん [sage] 2017/02/18(土) 15:52:07.56 ID:lAiiQrdi >>927 >深層学習において誤差逆伝播法以外にパラメーターを調節する方法や試みはないのか? ちょっと変わったニューラルネットワーク Reservoir Computing http://qiita.com/kazoo04/items/71b659ced9dc0342a2b0 >入力層とReservoir間、Reservoir内の結合重みは乱数で初期化したあとは変更せず、 >Reservoirと出力層の間の重みだけを学習します。 Direct feedback alignment provides learning in Deep Neural Networks http://www.slideshare.net/DeepLearningJP2016/direct-feedback-alignment-provides-learning-in-deep-neural-networks >従来は、誤差逆伝播(以下BP)のとき、順伝播の行列Wを使い回していた。 >ランダム&学習しない行列Bで置き換えても、BPと同様に学習できた >それから実際の脳ニューロンも誤差逆伝播法みたいな動きをするんですか? ニューロンの概要とそのモデル http://kazoo04.hatenablog.com/entry/agi-ac-3 >ヘブ則「神経細胞Aが神経細胞Bを頻繁に発火させるのなら、神経細胞Aの効率が良くなる」 >STDP「神経細胞Bが発火する少し前に神経細胞Aが発火していれば、 > シナプスが増強され、逆であればシナプスが弱まる」 脳ニューロンでは逆方向の伝播は発見されていない。 小脳のモデル http://kazoo04.hatenablog.com/entry/2015/12/23/120000 >脳全体の1割程度しかない重さの小脳は、脳全体の8割のニューロンを有しているのです。 >小脳は内部でのフィードバックもない単純な3層のネットワークしかありません。 小脳は横に広い3層ネットワークでパターン認識を行っている。 脳と今のANNの違いを知りたいなら「人工知能 Advent Calendar 2015」を気に入ると思う。 人工知能 Advent Calendar 2015 http://qiita.com/advent-calendar/2015/ai http://echo.5ch.net/test/read.cgi/tech/1485008808/939
941: デフォルトの名無しさん [sage] 2017/02/18(土) 15:57:49.36 ID:rWdNAKwj 理論的な裏付けもなく CNNで『ニューロンモデルだから上手くいくだ〜』って言って、かつ、実際に上手くいったから騒がれてるだけ。 ニューロンが何故いいのかのロジックは不足してる http://echo.5ch.net/test/read.cgi/tech/1485008808/941
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.055s