[過去ログ]
【統計分析】機械学習・データマイニング26 (1002レス)
【統計分析】機械学習・データマイニング26 http://mevius.5ch.net/test/read.cgi/tech/1568506986/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
209: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 12:41:16.37 ID:Fxu1r5BT0 >>205 平均値についても同様の事が言える 仮に評価する側が同じだとしても 店舗の特徴によって分布の形は変わる 分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス が本来目標としたものかもしれない 分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う http://mevius.5ch.net/test/read.cgi/tech/1568506986/209
210: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 12:44:15.71 ID:Fxu1r5BT0 >>207 評価尺度はただの順序尺度で間隔尺度ではないだろう http://mevius.5ch.net/test/read.cgi/tech/1568506986/210
211: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4]) [] 2019/10/13(日) 12:53:02.60 ID:sm0sVhGqM >>159 大規模ですけどC、C++、アセンブラです。 現在、全部で数百万ステップです http://mevius.5ch.net/test/read.cgi/tech/1568506986/211
212: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 13:19:59.66 ID:kaSZg9r20 いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた 改めてデータに立ち戻ろう 3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ 逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ 次に3.8に
ギャップがある理由を考えてみる 元のデータを見た所、2つのガウス関数の和で表現できそうだ 一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある この2つのガウス関数が意味するところは ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、 あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、 はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違
いを表すのか ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ http://mevius.5ch.net/test/read.cgi/tech/1568506986/212
213: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 13:25:37.35 ID:Fxu1r5BT0 操作がなかったという帰無仮説を棄却できるかどうかじゃね? http://mevius.5ch.net/test/read.cgi/tech/1568506986/213
214: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 13:39:33.29 ID:kaSZg9r20 >>202 まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ 少し古いけど https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html にある CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく ということなんだろう RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってこと
ではないよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/214
215: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 13:45:19.51 ID:48i2xCpca 三層のニューラルネットワークでは xor を分離できないという問題は さらに多層になったことで何で解消されたの? http://mevius.5ch.net/test/read.cgi/tech/1568506986/215
216: デフォルトの名無しさん (ワッチョイ e394-P4H7 [115.37.73.212]) [sage] 2019/10/13(日) 14:17:08.81 ID:25TC8kRG0 3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる https://i.imgur.com/NrNIWrn.jpg 平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000) ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない http://mevius.5ch.net/test/read.cgi/tech/1568506986/216
217: デフォルトの名無しさん (アウアウエー Sa13-P4H7 [111.239.178.130]) [sage] 2019/10/13(日) 14:21:02.62 ID:qY0pTgmia >>213 操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから しかしそんなもの知り得ないので検定のしようがない http://mevius.5ch.net/test/read.cgi/tech/1568506986/217
218: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 14:23:09.86 ID:llG9wcVha >>215 出来ないのは2層 3層にすると一度高次元空間に写してからシンプルな境界で分離出来る http://mevius.5ch.net/test/read.cgi/tech/1568506986/218
219: デフォルトの名無しさん (ブーイモ MM59-ToAo [210.138.208.219]) [sage] 2019/10/13(日) 14:45:50.67 ID:TJDkUn5hM >>208 >>214 ありがとうございます。ほぼCNNのことと思って良さそうなんですね CNNが凄い!っことを深層学習という言葉に拡大して凄い!って言ってるイメージですね http://mevius.5ch.net/test/read.cgi/tech/1568506986/219
220: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 15:01:05.43 ID:kaSZg9r20 >> 215 細かいけど、まず層の数え方から 入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる 次にXORはなぜ2層で表現可能か 単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから ググったら以下のような図を見つけた https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png >>218の回答はエレガントだけども、少し説明を加えると (0, 0) → 0 (0, 1) → 1 (1, 0)
→ 1 (1, 1) → 0 を分ける直線は2次元平面内では書けないけど、3次元に拡張して (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面) a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる http://mevius.5ch.net/test/read.cgi/tech/1568506986/220
221: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 18:39:55.88 ID:48i2xCpca 二層あれば大抵の関数は模倣できるのに 何でもっと多層が必要なの? http://mevius.5ch.net/test/read.cgi/tech/1568506986/221
222: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 18:43:34.64 ID:Fxu1r5BT0 >>217 諦めたらそこで試合終了ですよ 目の前にヒントが転がっていても見えなくなる http://mevius.5ch.net/test/read.cgi/tech/1568506986/222
223: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 18:44:48.26 ID:Fxu1r5BT0 >>218 線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して http://mevius.5ch.net/test/read.cgi/tech/1568506986/223
224: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:30:49.94 ID:llG9wcVha >>221 層を増やす方が効率が高い ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない http://mevius.5ch.net/test/read.cgi/tech/1568506986/224
225: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:32:44.25 ID:llG9wcVha >>223 一旦中間層のニューロン数だけの次元を持つ空間を経由できるから http://mevius.5ch.net/test/read.cgi/tech/1568506986/225
226: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 20:04:55.16 ID:Fxu1r5BT0 >>225 線型結合して関数を通して また線型結合して関数を通して の繰り返しでなぜ高次元になるの? 関数によって非線形になるなら判るけど http://mevius.5ch.net/test/read.cgi/tech/1568506986/226
227: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 20:33:11.99 ID:llG9wcVha >>226 非線形な活性化関数噛ませるでしょ普通 自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから http://mevius.5ch.net/test/read.cgi/tech/1568506986/227
228: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 20:44:50.78 ID:/3kPh57iM ディープキスのほうがいい! 舌をからませるの 立つよね! http://mevius.5ch.net/test/read.cgi/tech/1568506986/228
229: デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86]) [sage] 2019/10/13(日) 20:48:48.51 ID:P1vmVh210 >ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない こんなことを示した論文などない。 よくこんなことをさも証明されたことの如く言えるな。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/229
230: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:28:26.53 ID:kaSZg9r20 >>221 本質的な質問が来た これについては俺も明確な答えは持ってないなぁ 直感的には、多層の方が中間層に保持できるパラメータ数が多く そこには活性化関数を通した非線形の効果も含まれているので ほどほどにノイズが消されていて抽象的な状態を保持できるから と思うんだが、本当かどうかは分からない http://mevius.5ch.net/test/read.cgi/tech/1568506986/230
231: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 21:37:08.64 ID:llG9wcVha >>229 Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014. NIPSの論文だが 何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか http://mevius.5ch.net/test/read.cgi/tech/1568506986/231
232: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:45:22.38 ID:kaSZg9r20 >>226 ちょうどいいので>>220で示したXORを例に説明しよう 入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う つまり (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる すなわちx3をx1, x2から作れれば良いので a = w11・x1 + w12・x2 b = w21・x1 + w22・x2 c = w31・x1 + w32・x2 d = w4
1・x1 + w42・x2 として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである つまり層を1層増やすということは、次元を増やすことと同値である http://mevius.5ch.net/test/read.cgi/tech/1568506986/232
233: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:46:31.38 ID:kaSZg9r20 >>226 ちょうどいいので>>220で示したXORを例に説明しよう 入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う つまり (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる すなわちx3をx1, x2から作れれば良いので a = w11・x1 + w12・x2 b = w21・x1 + w22・x2 c = w31・x1 + w32・x2 d = w4
1・x1 + w42・x2 として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである つまり層を1層増やすということは、次元を増やすことと同値である http://mevius.5ch.net/test/read.cgi/tech/1568506986/233
234: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 22:05:13.10 ID:48i2xCpca 五、六層でいいのかと思いきや ものすごく多層にするよねえ うまくいくからという説明しかないのか? http://mevius.5ch.net/test/read.cgi/tech/1568506986/234
235: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 22:18:18.69 ID:/3kPh57iM >>221 〉二層あれば大抵の関数は模倣できる その『大抵』とは、どの程度なんですか? それが示されてないのですから まったく意味をなさないですよね? >>230 その意味をなさない書き込みに、 本質的とかって、 レベル低すぎですね。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/235
236: デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111]) [sage] 2019/10/13(日) 22:20:28.84 ID:mSmeGM2p0 >>235 完全な関数の導入じゃなくて疑似的な関数が解ればいいから http://mevius.5ch.net/test/read.cgi/tech/1568506986/236
237: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 22:35:14.55 ID:kaSZg9r20 >>235 あんたは性格悪いなぁ・・・ ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ? 知ってて聞いてるなら教えてやれよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/237
238: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10]) [sage] 2019/10/14(月) 00:26:24.00 ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる http://mevius.5ch.net/test/read.cgi/tech/1568506986/238
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 764 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.027s