[過去ログ] 【統計分析】機械学習・データマイニング12©2ch.net (1002レス)
上下前次1-新
抽出解除 レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
15(4): 2017/01/22(日)17:26 ID:RWAmR0t+(3/6) AAS
そうそうタダの割り算だよ、まあ掛け算でも同じことになるんだろうけど
タダの掛け算・割り算をニューラルネットワークでやるのに、なんかいい方法ないかな?
39(4): 2017/01/22(日)23:57 ID:2nGClj4f(1) AAS
>>15 掛け算だけど極限操作を許容すればドンピシャで一発回答
Why does deep and cheap learning work so well?
外部リンク:arxiv.org
p.4 Continuous input variables
ここでの記号でXa * Xbの例がイラスト付きで例に挙げられてる
論文中の記号でシグマと書いている関数を原点近傍でテイラー展開しているので
割り算にはそのままでは適用できないけど手がかりが掴めればと思う
論文の著者が直接くおーらで回答しているのは以前リンクを貼っといた
73(7): 2017/01/24(火)10:54 ID:eNQkhgOl(1/8) AAS
(x1, y1, 1), (x2, y2, 1), …, (xi, yi, 1), …, (xn, yn, 1)
(u1, v1, -1), (u2, v2, -1), …, (ui, vi, -1), …, (um, vm, 1)
というデータが与えられているとする。
未来に与えられるデータ
(a1, b1, l1), (a2, b2, l2), …, (ai, bi, li), …
の li が 1 なのか -1 なのか予測したい。
この問題を機械学習で解決するのに、なぜ、α, β, γを適当に決めて、
α*ai + β*bi + γ > 0 ならば li = 1
α*ai + β*bi + γ < 0 ならば li = -1
と予測するというような方法をとることがあるのでしょうか?
xi, yi, ui, vi の分布が正規分布だと仮定して、
(x = ai のときの確率密度関数の値) * (y = bi のときの確率密度関数の値)
と
(u = ai のときの確率密度関数の値) * (v = bi のときの確率密度関数の値)
の大小を比較して、大きいほうのグループに属すると判定するというような
方法を誰でも最初に思いつくのではないかと思うのですが。
86(3): 2017/01/24(火)13:28 ID:uQjLcZ8g(1) AAS
線形カーネルだと何層重ねても単層と変わらないよ
と言いつつ線形関数の折り曲げ版であるReluがなぜ問題ないのかわからない
145(3): 2017/01/26(木)07:21 ID:PobJ+xli(1/2) AAS
Google翻訳のアプリはすごいな
スマホカメラに写ってる文字が自動翻訳され、そのまま置き換わって写ってるんだぜ
Deep learning 恐るべき
199(3): 2017/01/28(土)02:14 ID:BCr/Oho6(2/4) AAS
>>195
Deep Learning framework速度比較
画像リンク
画像リンク
Distributed TensorFlowの話
外部リンク:qiita.com
TensorFlowが遅い事は以前から指摘されていた。
そしてGoogle以外はGoogleのJupiterネットワークを使えない。
201(3): 2017/01/28(土)02:29 ID:lAN98u4l(2/2) AAS
>>198
何だかなぁ。5倍以上というけど、Chainer 以外のフレームワークのコードが
32ノード/128GPU に最適化されているとはとても思えないんだが?
あと、さくらのクラスタは 32ノード/128GPU でお幾らなの?初期化コストも含めてな。現実的なの?
>>199
TensorFlow はマイナーバージョンアップ毎に高速化してるよ。
210(4): 2017/01/28(土)08:57 ID:CMqXCA8h(1) AAS
>>197
>>204
母国語で読めるというのは高いアベレージなのにね。
それにユーザーのメモ帳のようなブログ記事に任せずに
公式本や資料を充実させればいいのに。
もしくは相手がやっていないJavaやC/C++版も充実させるとか。
あそこは初学者でも何でも積極的に広めようというより
いいのを作れば意識高い人が使って自然に広まるという考えなんだろうけど。
閉じた研究グループ活動ならともかく商売なのに下手なやり方よね。
228(3): 2017/01/29(日)11:39 ID:UPfWW/c8(1) AAS
機械学習マンは統計学の用語をわざわざ格好いいものに置き換えているのは気のせいだろうか
回帰・分類 → 教師あり学習
説明変数 → 特徴量
応答変数 → ラベル
333(3): 2017/02/03(金)16:45 ID:fuOx2c+7(1) AAS
Pythonにやられっぱなしだったけどデータサイエンス分野でのRubyの逆襲が始まった
外部リンク:www.s-itoc.jp
334(5): 2017/02/03(金)17:55 ID:CmWPA7NT(1) AAS
新聞にSOINN はプログラムするのではなく、データを与えることで自ら育つ人工知能です。
ノイズが混入したデータであっても、そのまま学習データとして活用できます。
と書いているのですが何故このスレで話題にならないのですか
369(3): 2017/02/05(日)12:24 ID:5OlxdBIJ(1/3) AAS
>>334
はっきり言って実績が少なすぎる。
取り上げるほどのものではない。
既存の手法より優れているかどうかの理論的なあとづけがない、かつ、ほんの数人しか手を付けてなく実行例が少ない段階なのに勝手にマスコミが取り上げて騒いでるだけ。
392(3): 2017/02/05(日)16:44 ID:CY/qlqbs(3/4) AAS
すみません
本格的に無知なので定番のやつと言われても分かりません
どのページあるのか教えていただけますか???
419(3): 2017/02/06(月)10:41 ID:JcpLqgVq(1) AAS
時系列データのコンテストってあんの?
451(3): 2017/02/07(火)12:01 ID:DrDEvIw0(1) AAS
>>450
chainerとかtensorflowとかを使う人が増えると
それらを開発した会社はどんな金儲けができるの?
後に有償化とかサポート料とるとか?
コンサルみたいな事をやるとか?
コンサルは自前のライブラリじゃなくても良くね?
489(3): 2017/02/08(水)19:47 ID:R/FUqnhp(1/2) AAS
ロボット研究なんですが、機械学習ってこれから需要あると思いますか?
用途絞った汎用品ならライブラリ既にありますよね特に認識系
本職のデータサイエンティストが自作したのより、後に出た汎用オープンソースの方が精度高いとか普通みたいですし
組み込み系か、機械学習どっち担当するか選ばないといけないのですが
組み込みのが潰しが効きそうな気がしてます
657(3): 2017/02/12(日)10:18 ID:siqk/GyZ(2/2) AAS
>>201
TensorFlow分散環境が他のフレームワークより数倍遅いのはgRPCが遅いからだそうだ。
gRPC高速化パッチが登場したが変更点が多すぎて安定版にすぐにマージできない。
ChainerMN による分散深層学習の性能について
外部リンク:research.preferred.jp
grpc RecvTensor is slow
外部リンク:github.com
684(6): 2017/02/12(日)22:16 ID:+KIYndDJ(1) AAS
機械学習ってさもはやプログラミングじゃなくて
要素とパラメータをいじって、精度がー精度がーっていう
作業でしょ?
736(3): 2017/02/14(火)14:40 ID:w8AVSLfp(2/2) AAS
誰かがdynamic computation graphをchainerで実装するだけだろ
なにが瞬殺なのかわからん
817(3): 2017/02/16(木)15:42 ID:YXBOe5iy(1) AAS
いい意味でhackerだから自分の腕で対抗してみたいんでしょ
822(3): 2017/02/16(木)16:24 ID:rGWDv0Eb(2/3) AAS
日本の科学技術って、常に常時欧米の後追いじゃないの?
最近じゃ中国の後ろを走らされてる気もするけど・・・・
867(3): 2017/02/17(金)10:23 ID:C4Hkh8Hg(1) AAS
chainer憎しの人は何なんだろう
別にchainerが存在してもいいと思うのに
880(3): 2017/02/17(金)17:58 ID:zgDgwzIu(2/3) AAS
>>874
Python以外サポートしないChainerがシェアを取ると主張するなら信者だね。
でもChainerはPythonだけで新種のNNを簡単に実装できるからNN研究に向いている。
Qiitaの論文解説記事で実装もしている場合は大抵Chainer実装だ。
アルゴリズムを知りたい人と応用が目的の人で好き嫌いが分かれるのでは?
939(3): 2017/02/18(土)15:52 ID:lAiiQrdi(1/4) AAS
>>927
>深層学習において誤差逆伝播法以外にパラメーターを調節する方法や試みはないのか?
ちょっと変わったニューラルネットワーク Reservoir Computing
外部リンク:qiita.com
>入力層とReservoir間、Reservoir内の結合重みは乱数で初期化したあとは変更せず、
>Reservoirと出力層の間の重みだけを学習します。
Direct feedback alignment provides learning in Deep Neural Networks
外部リンク:www.slideshare.net
>従来は、誤差逆伝播(以下BP)のとき、順伝播の行列Wを使い回していた。
>ランダム&学習しない行列Bで置き換えても、BPと同様に学習できた
>それから実際の脳ニューロンも誤差逆伝播法みたいな動きをするんですか?
ニューロンの概要とそのモデル
外部リンク:kazoo04.hatenablog.com
>ヘブ則「神経細胞Aが神経細胞Bを頻繁に発火させるのなら、神経細胞Aの効率が良くなる」
>STDP「神経細胞Bが発火する少し前に神経細胞Aが発火していれば、
> シナプスが増強され、逆であればシナプスが弱まる」
脳ニューロンでは逆方向の伝播は発見されていない。
小脳のモデル
外部リンク:kazoo04.hatenablog.com
>脳全体の1割程度しかない重さの小脳は、脳全体の8割のニューロンを有しているのです。
>小脳は内部でのフィードバックもない単純な3層のネットワークしかありません。
小脳は横に広い3層ネットワークでパターン認識を行っている。
脳と今のANNの違いを知りたいなら「人工知能 Advent Calendar 2015」を気に入ると思う。
人工知能 Advent Calendar 2015
外部リンク:qiita.com
941(3): 2017/02/18(土)15:57 ID:rWdNAKwj(2/8) AAS
理論的な裏付けもなく
CNNで『ニューロンモデルだから上手くいくだ〜』って言って、かつ、実際に上手くいったから騒がれてるだけ。
ニューロンが何故いいのかのロジックは不足してる
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.073s