[過去ログ] 【統計分析】機械学習・データマイニング26 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
211: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4]) [] 2019/10/13(日) 12:53:02.60 ID:sm0sVhGqM(1) AAS
>>159
大規模ですけどC、C++、アセンブラです。
現在、全部で数百万ステップです
212(1): デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 13:19:59.66 ID:kaSZg9r20(5/11) AAS
いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
213(1): デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 13:25:37.35 ID:Fxu1r5BT0(5/8) AAS
操作がなかったという帰無仮説を棄却できるかどうかじゃね?
214(1): デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 13:39:33.29 ID:kaSZg9r20(6/11) AAS
>>202
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
215(1): デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 13:45:19.51 ID:48i2xCpca(1/3) AAS
三層のニューラルネットワークでは xor を分離できないという問題は
さらに多層になったことで何で解消されたの?
216: デフォルトの名無しさん (ワッチョイ e394-P4H7 [115.37.73.212]) [sage] 2019/10/13(日) 14:17:08.81 ID:25TC8kRG0(1) AAS
3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる
https://i.imgur.com/NrNIWrn.jpg
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
217(1): デフォルトの名無しさん (アウアウエー Sa13-P4H7 [111.239.178.130]) [sage] 2019/10/13(日) 14:21:02.62 ID:qY0pTgmia(1) AAS
>>213
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
218(2): デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 14:23:09.86 ID:llG9wcVha(1/5) AAS
>>215
出来ないのは2層
3層にすると一度高次元空間に写してからシンプルな境界で分離出来る
219: デフォルトの名無しさん (ブーイモ MM59-ToAo [210.138.208.219]) [sage] 2019/10/13(日) 14:45:50.67 ID:TJDkUn5hM(1) AAS
>>208
>>214
ありがとうございます。ほぼCNNのことと思って良さそうなんですね
CNNが凄い!っことを深層学習という言葉に拡大して凄い!って言ってるイメージですね
220(2): デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 15:01:05.43 ID:kaSZg9r20(7/11) AAS
>> 215
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
221(6): デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 18:39:55.88 ID:48i2xCpca(2/3) AAS
二層あれば大抵の関数は模倣できるのに
何でもっと多層が必要なの?
222: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 18:43:34.64 ID:Fxu1r5BT0(6/8) AAS
>>217
諦めたらそこで試合終了ですよ
目の前にヒントが転がっていても見えなくなる
223(1): デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 18:44:48.26 ID:Fxu1r5BT0(7/8) AAS
>>218
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
224(1): デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:30:49.94 ID:llG9wcVha(2/5) AAS
>>221
層を増やす方が効率が高い
ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
225(1): デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:32:44.25 ID:llG9wcVha(3/5) AAS
>>223
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
226(3): デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 20:04:55.16 ID:Fxu1r5BT0(8/8) AAS
>>225
線型結合して関数を通して
また線型結合して関数を通して
の繰り返しでなぜ高次元になるの?
関数によって非線形になるなら判るけど
227: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 20:33:11.99 ID:llG9wcVha(4/5) AAS
>>226
非線形な活性化関数噛ませるでしょ普通
自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから
228: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 20:44:50.78 ID:/3kPh57iM(1/2) AAS
ディープキスのほうがいい!
舌をからませるの
立つよね!
229(1): デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86]) [sage] 2019/10/13(日) 20:48:48.51 ID:P1vmVh210(1) AAS
>ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
230(1): デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:28:26.53 ID:kaSZg9r20(8/11) AAS
>>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
231: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 21:37:08.64 ID:llG9wcVha(5/5) AAS
>>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
232(1): デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:45:22.38 ID:kaSZg9r20(9/11) AAS
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
233: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:46:31.38 ID:kaSZg9r20(10/11) AAS
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
234: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 22:05:13.10 ID:48i2xCpca(3/3) AAS
五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
235(2): デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 22:18:18.69 ID:/3kPh57iM(2/2) AAS
>>221
〉二層あれば大抵の関数は模倣できる
その『大抵』とは、どの程度なんですか?
それが示されてないのですから
まったく意味をなさないですよね?
>>230
その意味をなさない書き込みに、
本質的とかって、
レベル低すぎですね。
236: デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111]) [sage] 2019/10/13(日) 22:20:28.84 ID:mSmeGM2p0(1) AAS
>>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
237: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 22:35:14.55 ID:kaSZg9r20(11/11) AAS
>>235
あんたは性格悪いなぁ・・・
ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ?
知ってて聞いてるなら教えてやれよ
238: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10]) [sage] 2019/10/14(月) 00:26:24.00 ID:Xj3JYQcoa(1) AAS
専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
239: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6]) [sage] 2019/10/14(月) 00:50:17.12 ID:yAy44Gfva(1) AAS
初等関数?
特殊関数?
240(1): デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/14(月) 07:16:20.36 ID:KQ95R8h/0(1) AAS
>>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
241(3): デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/14(月) 12:29:28.91 ID:utYACZDud(1/2) AAS
前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
242(1): デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 12:54:25.27 ID:syyLl6c1M(1/4) AAS
>>241
ならば『excelでわかるディープラーニング超入門』がオススメ
続編もある
243: デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198]) [sage] 2019/10/14(月) 13:19:28.08 ID:aq/jCORe0(1) AAS
>>241
あの本は線型代数と微積分の知識は必須だと思う
244: デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92]) [sage] 2019/10/14(月) 13:53:05.51 ID:pO8Bz3ni0(1) AAS
機械学習に数学はいらないよ
245: デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59]) [] 2019/10/14(月) 14:01:22.69 ID:htBbaZR2r(1) AAS
機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
246: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 14:23:44.68 ID:syyLl6c1M(2/4) AAS
ソフト使うだけなら数学いらんわね
247(1): デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173]) [sage] 2019/10/14(月) 14:26:05.12 ID:daX/fZMnF(1/2) AAS
適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
248: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/14(月) 14:31:10.41 ID:JdA0BOgta(1/3) AAS
>>247
そういう仕事は既にAutoMLに取られつつあるね
249: デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127]) [sage] 2019/10/14(月) 14:31:49.76 ID:XFqMr8NbM(1) AAS
というかこの世界ももう土方がいるのか
250: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/14(月) 14:40:16.73 ID:VuPQ6UMJ0(1) AAS
>>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
251: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 14:42:39.82 ID:syyLl6c1M(3/4) AAS
最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
252: デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173]) [sage] 2019/10/14(月) 14:47:46.87 ID:daX/fZMnF(2/2) AAS
この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
253: デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/14(月) 15:08:32.93 ID:utYACZDud(2/2) AAS
>>242
ありがとう。調べてみます。
254: デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116]) [sage] 2019/10/14(月) 15:10:40.92 ID:4WTqwCCG0(1/2) AAS
今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
255(1): デフォルトの名無しさん (ワッチョイ 0359-o74w [133.175.166.116]) [sage] 2019/10/14(月) 15:13:07.19 ID:4WTqwCCG0(2/2) AAS
>>241
あの本のレベルの数学が分からないと厳しい
数学が分からないと言いながらDSやってる人たちでも理解できる程度の内容
256: デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160]) [sage] 2019/10/14(月) 15:22:52.88 ID:drx0D0Vb0(1) AAS
博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
257(1): デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 16:12:47.05 ID:syyLl6c1M(4/4) AAS
博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
258(1): デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/14(月) 17:26:03.50 ID:JdA0BOgta(2/3) AAS
>>257
例えばどこの院
259: デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175]) [] 2019/10/14(月) 18:51:16.60 ID:/yNf4ic50(1/2) AAS
>>255
DSって何ですか?
260: デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20]) [] 2019/10/14(月) 18:55:58.36 ID:ljIrzJ7BF(1) AAS
Deta
Saiensu
261: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237]) [sage] 2019/10/14(月) 19:22:19.56 ID:lAL0R9ntM(1/3) AAS
サイエンティストな
262: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57]) [] 2019/10/14(月) 20:18:41.61 ID:DQ9Yh+dwM(1) AAS
>>258
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
263(1): デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175]) [] 2019/10/14(月) 21:29:45.45 ID:/yNf4ic50(2/2) AAS
ディープラーニング発明した人に
ノーベル賞やるべきだと思う。
264: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237]) [sage] 2019/10/14(月) 21:34:26.95 ID:lAL0R9ntM(2/3) AAS
そんな人おらん
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
265: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237]) [] 2019/10/14(月) 21:35:46.34 ID:lAL0R9ntM(3/3) AAS
メダル獲れなかったkaggle用のnoteをgithubに載せてしまった。はずかしー
これで就活だあ〜。おーッ!
266: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/14(月) 23:09:10.36 ID:JdA0BOgta(3/3) AAS
>>263
チューリング賞はとった
267: デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.131.86]) [sage] 2019/10/14(月) 23:23:40.59 ID:Dfy8oKXF0(1) AAS
チューリング賞は賞自体よりも取ってる人のがたいてい有名っていう。。
268: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57]) [] 2019/10/15(火) 02:28:14.05 ID:KLW/euVzM(1/2) AAS
甘利さんか?
269(1): デフォルトの名無しさん (ブーイモ MM43-HLBv [49.239.65.167]) [sage] 2019/10/15(火) 06:10:05.34 ID:I8iXAPqNM(1) AAS
競馬予想みたいにデータ収集含めて特定の領域に特化したモデル作れる人だけが勝つようになるかね、、、全く潰しのきかない職業になりそうですね。
270: デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198]) [sage] 2019/10/15(火) 06:37:37.44 ID:7FHw0Vhl0(1) AAS
ゲームの自動生成やりたいから勉強してるけどそういう職業目指してない
271: デフォルトの名無しさん (アウアウカー Sa51-KA+R [182.251.40.158]) [] 2019/10/15(火) 07:35:51.98 ID:5lPGjOaaa(1) AAS
>>269
田倉寛史は失業するな。
272: デフォルトの名無しさん (ワントンキン MMa3-Hjv8 [153.154.213.244]) [] 2019/10/15(火) 09:11:20.62 ID:CGH1vHQcM(1) AAS
競馬って予想して勝てるゲームなの?
273: デフォルトの名無しさん (ワッチョイ 1bd2-jjWQ [39.111.201.166]) [sage] 2019/10/15(火) 09:52:34.15 ID:BuCrjnSD0(1) AAS
kerasしかわかんね
274: デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.107.240]) [sage] 2019/10/15(火) 10:04:58.88 ID:ST5HgM4Ya(1) AAS
統計学で競馬で食ってる人いる見たいよ
10年くらい前に聞いた話しだけど
275: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252]) [sage] 2019/10/15(火) 10:08:19.91 ID:CpmUKzMvM(1/2) AAS
統計学やらなくてもきちんと研究すれば勝てるらしいけど
才能の使い方としては空しいな
276: デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.117.54]) [] 2019/10/15(火) 10:31:23.58 ID:YjTx8zIDa(1) AAS
佐々木洋佑の予想。
277(1): デフォルトの名無しさん (スフッ Sd43-w6Hz [49.104.12.227]) [sage] 2019/10/15(火) 10:36:34.51 ID:tidBIruUd(1) AAS
控除率25%の競馬で勝とうとするならもっと楽に勝てるとこに注力した方がましやろ
278: デフォルトの名無しさん (ワッチョイ 3555-TmsB [180.44.111.72]) [sage] 2019/10/15(火) 10:52:22.27 ID:AlK2cYWx0(1) AAS
>>277
FXとか?
279: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.252]) [sage] 2019/10/15(火) 11:24:20.27 ID:CpmUKzMvM(2/2) AAS
FXより競馬の方が百倍楽でしょ
勝つために必要なデータを取れればだけど
280: デフォルトの名無しさん (オッペケ Sr61-uMWA [126.255.149.234]) [sage] 2019/10/15(火) 12:32:17.34 ID:2+ahF6drr(1) AAS
>>221
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
281: デフォルトの名無しさん (ワッチョイ 35a0-o74w [110.4.207.23]) [sage] 2019/10/15(火) 13:03:36.76 ID:uSQ3MvZ60(1) AAS
テーブルデータの解析って、nnをつかっても2層や3層だから、ぜんぜんdeepじゃないよね
営業の人はそれでもディープラーニングっていうんだろうなあ
282: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57]) [] 2019/10/15(火) 13:13:25.51 ID:KLW/euVzM(2/2) AAS
テーブルデータってなーに?
283(1): デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59]) [] 2019/10/15(火) 16:36:14.39 ID:OfiTiE/Hr(1) AAS
>>221
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
284: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/15(火) 23:48:10.86 ID:1HOx40aj0(1) AAS
層を増やすと普通にバックプロパゲーションだけでは上手く学習できないんじゃね
どうするんだっけ
285: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4]) [] 2019/10/16(水) 07:22:30.93 ID:399vjxSUM(1) AAS
甘利さんに聞く
286(2): デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/16(水) 12:21:07.84 ID:KK2SmrYwd(1) AAS
ドロップアウトって
実際に人間の脳でも行われているのでしょうか?
287(1): デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73]) [sage] 2019/10/16(水) 12:33:04.35 ID:ur38NdBia(1/2) AAS
インドのリキシャの話は知ってるか?
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
288: デフォルトの名無しさん (ワッチョイ 9501-tBfs [126.48.125.229]) [sage] 2019/10/16(水) 12:49:56.91 ID:Bk7OFSs90(1) AAS
シミュラクラ現象のことか
289: デフォルトの名無しさん (ワッチョイ 1bad-wpN8 [119.170.39.15]) [sage] 2019/10/16(水) 12:55:37.60 ID:/VU6ev+W0(1) AAS
kerasで作ったモデルをtfjsで読み込んだんだが
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
290(1): デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.48]) [] 2019/10/16(水) 13:17:05.59 ID:YrOVtgjKM(1) AAS
>>287
当たり前のことすぎて
どう反応していいかわからんよ。
どういうレスが欲しかったの?
291: デフォルトの名無しさん (アウアウカー Sa51-Eud4 [182.251.111.73]) [sage] 2019/10/16(水) 15:01:44.54 ID:ur38NdBia(2/2) AAS
>>290
は?誰?どゆこと?w
292(2): デフォルトの名無しさん (ササクッテロ Sp61-zuf7 [126.35.224.239]) [sage] 2019/10/16(水) 18:21:05.32 ID:aRt+pAGAp(1) AAS
>>286
どうだろうね
短期記憶が長期記憶に移るときに、移らなかった記憶はドロップアウトされたと考えられなくもないかなぁ
293: デフォルトの名無しさん (スフッ Sd43-v2l4 [49.104.18.87]) [] 2019/10/16(水) 18:25:30.68 ID:mV5OOZvVd(1) AAS
>>292
ドロップアウトは過学習を抑制するためにやるやつだし
記憶の結び付きとは違うだろ
294(1): デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.198.192]) [sage] 2019/10/16(水) 20:46:35.90 ID:h/NO83zwa(1) AAS
>>286
可塑性を示すものは発見されてるけどシナプス伝達におけるフィードバック機構は見つかってない
神経回路で見ればフィードバックの投射は当たり前に存在するけどそれでは誤差伝播にはなり得ない
295(1): デフォルトの名無しさん (ワッチョイ a359-i1P6 [157.14.243.91]) [sage] 2019/10/16(水) 20:46:41.74 ID:wE+aWwg30(1/2) AAS
一度見た画像をぼんやりとしか覚えてない、という奴はドロップアウト臭い
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ
296: デフォルトの名無しさん (ワッチョイ a359-i1P6 [157.14.243.91]) [sage] 2019/10/16(水) 20:48:32.70 ID:wE+aWwg30(2/2) AAS
>>294
これま?
297: デフォルトの名無しさん (ワッチョイ c501-e/MC [60.86.178.93 [上級国民]]) [] 2019/10/16(水) 21:07:54.87 ID:dCHq3Ix40(1) AAS
>>295
>一度見た画像をぼんやりとしか覚えてない
そもそも観察メッシュが雑(現物→キャッシュ的なところ の時点で情報がだいぶ落ちてしまう)なヤツの場合・・・
298: デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.183.128]) [sage] 2019/10/16(水) 21:15:52.71 ID:XUKusm2Pa(1) AAS
BPの話かと思ったらdropoutの方だったすまん
そっちに関連するものは知らん
299: デフォルトの名無しさん (オッペケ Srbf-bvQ5 [126.208.149.124]) [sage] 2019/10/17(木) 08:31:12.53 ID:O+QTTbhZr(1) AAS
>>283
KKT条件?
300: デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.93]) [sage] 2019/10/17(木) 15:21:49.83 ID:lSerOx+kM(1) AAS
違うぞ
301(1): デフォルトの名無しさん (オッペケ Srbf-S1Ce [126.211.27.217]) [sage] 2019/10/17(木) 15:30:38.70 ID:IoilZ/4vr(1) AAS
mnistのデータをインストール出来なかったから
直接.npz型データを落としてきてこれを.kerasのdatasetsフォルダに入れたら
使えるようになった
こういうのは邪道なのか
302(1): デフォルトの名無しさん (JP 0Hd2-ugRq [153.143.147.33]) [sage] 2019/10/18(金) 20:19:51.03 ID:ohB2HmeFH(1) AAS
きみたちSparkとかHadoopとか使ってるの?
深層学習の理論の話しは出るけども
303: デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.125]) [sage] 2019/10/18(金) 22:12:26.25 ID:+r0vv9/5M(1/2) AAS
Sparkは競争に負けたシステムだし、Hadoopはゴミ
304: デフォルトの名無しさん (アウアウクー MMff-V+wO [36.11.225.125]) [sage] 2019/10/18(金) 22:12:50.99 ID:+r0vv9/5M(2/2) AAS
>>301
たぶん正道
305: デフォルトの名無しさん (ワッチョイ bf01-V+wO [126.25.131.86]) [sage] 2019/10/19(土) 10:20:09.74 ID:Xn59Im0u0(1/2) AAS
hadoopなんてまともに使おうとしたらgoogle並みの回線チューニングが必要なんでしょ?
306: デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178]) [] 2019/10/19(土) 11:27:09.87 ID:O4F+zYXc0(1/2) AAS
ググってると、ときどき尾崎隆のブログが検索結果に出てくる。
みなさんもご存じ(?)の、
「渋谷駅前で働くデータサイエンティストのブログ」というやつ。
名前を公開して堂々とブログを書いているのであるから、
間違いがあっても、実名でよく書いた!ほめてあげよう。
だって、5chなんて匿名だから批判とか妬みとか罵詈雑言ばかりだもんな。
尾崎は偉いと思う。実名で書いてるから。
ちょっと自信過剰すぎて、ブログの間違いを見つけるたびに
笑えるけどそれもまたいい!
尾崎はいいやつ!
これからもブログをどんどん書いてくれ!
307: デフォルトの名無しさん (ワッチョイ 2fe6-sprL [14.3.161.84]) [] 2019/10/19(土) 12:29:08.69 ID:RpavgoGg0(1) AAS
自信過剰
308: デフォルトの名無しさん (ワッチョイ 4eda-r0zP [223.217.38.185]) [sage] 2019/10/19(土) 13:48:35.47 ID:oy4za/qN0(1) AAS
馬鹿乙
309: デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178]) [] 2019/10/19(土) 14:19:40.09 ID:O4F+zYXc0(2/2) AAS
>>302
> きみたちSparkとかHadoopとか使ってるの?
使っていない。
仕事でAzureとAWSを使っていて
もはやHadoopとか必要ねーじゃんとか思ってる
何か使う理由がある?
310: デフォルトの名無しさん (ファミワイ FF73-V+wO [210.248.148.138]) [sage] 2019/10/19(土) 15:03:04.15 ID:5Qr+gv3yF(1) AAS
オンプレ環境でリアルタイムのビックデータ解析やりたいシチュ
データ容量は1TB程度……あんまりないよね
上下前次1-新書関写板覧索設栞歴
あと 692 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.023s