[過去ログ]
【統計分析】機械学習・データマイニング26 (1002レス)
【統計分析】機械学習・データマイニング26 http://mevius.5ch.net/test/read.cgi/tech/1568506986/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
154: デフォルトの名無しさん (ワンミングク MMd3-y1nD [153.234.115.46]) [] 2019/10/08(火) 13:08:31.09 ID:pQwzHIwwM ヒューズの現象と次元の呪いって違うの? http://mevius.5ch.net/test/read.cgi/tech/1568506986/154
155: デフォルトの名無しさん (ワッチョイ c1da-N+cK [114.187.197.203]) [sage] 2019/10/08(火) 13:38:33.16 ID:EX96gh2V0 黄金比が審美医療で使われてるから顔のパーツの比を計測すれば美醜の判別は数値的にできると思う あとはエントロピーの低い顔は美人なはず ダウン症などの奇形顔はエントロピー高いから http://mevius.5ch.net/test/read.cgi/tech/1568506986/155
156: デフォルトの名無しさん (オッペケ Src5-mxGY [126.255.135.228]) [] 2019/10/08(火) 17:22:33.79 ID:73qw8B0jr >>155 何の、何に対するエントロピー? http://mevius.5ch.net/test/read.cgi/tech/1568506986/156
157: デフォルトの名無しさん (ワッチョイ 8901-o6K/ [126.25.129.72]) [sage] 2019/10/08(火) 21:40:37.04 ID:kGAGzuS00 平均的な顔がいいっていうデマね。 実際は美人バッカ集めて平均取った方が圧倒的に良かったとかそういう結果。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/157
158: デフォルトの名無しさん (ワッチョイ 93f1-y1nD [157.107.8.150]) [] 2019/10/09(水) 04:18:18.15 ID:+iZUlLJa0 そりゃーブサが平均に寄れば綺麗に見えるわ http://mevius.5ch.net/test/read.cgi/tech/1568506986/158
159: デフォルトの名無しさん (ワッチョイ 9359-o6K/ [157.14.225.51]) [sage] 2019/10/09(水) 12:43:17.12 ID:DoX5+3oi0 機械学習やるなら、Cかjavaかpythonだよなあ データサイエンティストおよびクラウド系のデータエンジニアならpython 大規模開発およびローカル系のデータエンジニアならjava ローカル系および組み込みならC javaの領域は今後すこしずつ縮小していく見通しだから、 新規で入るならpythonかCがオススメ http://mevius.5ch.net/test/read.cgi/tech/1568506986/159
160: デフォルトの名無しさん (ワッチョイ 6955-VirS [180.44.111.72]) [sage] 2019/10/09(水) 12:57:38.63 ID:8Gadabtv0 >>159 出来合いのライブラリを使う話? スクラッチでつくる暇人はいないか http://mevius.5ch.net/test/read.cgi/tech/1568506986/160
161: デフォルトの名無しさん (ワッチョイ 9300-BjtM [221.118.182.153]) [sage] 2019/10/09(水) 16:41:52.12 ID:IFGahd8r0 Geforce一択? http://mevius.5ch.net/test/read.cgi/tech/1568506986/161
162: デフォルトの名無しさん (ワッチョイ 139c-2YwE [61.125.210.189]) [sage] 2019/10/09(水) 18:03:33.95 ID:joEVXQiz0 巷で売れてるkaggle本買いました これから勉強します http://mevius.5ch.net/test/read.cgi/tech/1568506986/162
163: デフォルトの名無しさん (トンモー MM8d-2TCp [210.142.95.200]) [] 2019/10/09(水) 19:06:25.13 ID:/Xo+Y8M3M 統計学の勉強を本気で始めたら 恐ろしく難しいということがわかってきた どうしたらいい? http://mevius.5ch.net/test/read.cgi/tech/1568506986/163
164: デフォルトの名無しさん (ワッチョイ 8be3-G1PU [153.165.9.107]) [sage] 2019/10/09(水) 19:07:25.32 ID:qJaHnW7l0 参考書を変える http://mevius.5ch.net/test/read.cgi/tech/1568506986/164
165: デフォルトの名無しさん (オッペケ Src5-SxUP [126.208.204.78]) [sage] 2019/10/09(水) 19:11:04.90 ID:fonAqmctr >>161 amdも意外と使えるらしいけど、情報ないし疲れるよ。動かないとき常にうたがっちやうしね http://mevius.5ch.net/test/read.cgi/tech/1568506986/165
166: デフォルトの名無しさん (ワンミングク MMd3-y1nD [153.234.115.46]) [] 2019/10/09(水) 19:19:32.23 ID:4X2jyJQLM 古典統計学とベイズ統計学をちゃんと学びたい http://mevius.5ch.net/test/read.cgi/tech/1568506986/166
167: ◆QZaw55cn4c (ワッチョイ d347-sTUF [131.129.114.156 [上級国民]]) [sage] 2019/10/09(水) 20:05:21.59 ID:K/FCWkI00 >>166 統計論と確率論は違うものですか? http://mevius.5ch.net/test/read.cgi/tech/1568506986/167
168: デフォルトの名無しさん (アウアウカー Sa55-UPw3 [182.251.143.167]) [sage] 2019/10/09(水) 20:14:54.29 ID:fTI0icewa 統計学の中で使われる道具の1つが確率論 http://mevius.5ch.net/test/read.cgi/tech/1568506986/168
169: デフォルトの名無しさん (ワッチョイ 8901-o6K/ [126.25.129.72]) [sage] 2019/10/09(水) 20:23:04.27 ID:ZvOECUeE0 >>161 まずはawsかgcpでやってみろ。 はじめからグラボなんか購入しても必ず後悔する。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/169
170: デフォルトの名無しさん (ワッチョイ 5377-xqA2 [115.38.59.80]) [sage] 2019/10/09(水) 21:11:35.20 ID:MK+5GX/v0 古典統計とは集合論と位相空間論から測度論に発展して確率論との関係性のあたり? http://mevius.5ch.net/test/read.cgi/tech/1568506986/170
171: デフォルトの名無しさん (ワッチョイ 93f1-y1nD [157.107.8.150]) [] 2019/10/09(水) 22:40:50.59 ID:+iZUlLJa0 わかんない http://mevius.5ch.net/test/read.cgi/tech/1568506986/171
172: デフォルトの名無しさん (ワッチョイ 0bda-jw9j [121.118.80.163]) [sage] 2019/10/09(水) 22:44:05.44 ID:zMnGtdTv0 アホ http://mevius.5ch.net/test/read.cgi/tech/1568506986/172
173: デフォルトの名無しさん (アウアウエー Sae3-G1PU [111.239.59.242]) [sage] 2019/10/09(水) 22:58:19.23 ID:Qjd49VQKa 現実問題として、測度論まで必要になることはあるかなあ? まずは連続量ではなくて離散量での理解が先かと思われる それならそんなに難しくないでしょ http://mevius.5ch.net/test/read.cgi/tech/1568506986/173
174: デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240]) [sage] 2019/10/10(木) 00:11:01.13 ID:O5ET7Lyz0 規定関数の概念と関数のノルムさえ理解していればいらん。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/174
175: デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240]) [sage] 2019/10/10(木) 00:11:57.40 ID:O5ET7Lyz0 逆にそれがわかってない研究者はくそ http://mevius.5ch.net/test/read.cgi/tech/1568506986/175
176: デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240]) [sage] 2019/10/10(木) 00:14:30.11 ID:O5ET7Lyz0 それ=『規定関数の概念と関数のノルム』な。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/176
177: デフォルトの名無しさん (ワッチョイ 9bda-+sb9 [223.217.165.240]) [sage] 2019/10/10(木) 00:17:00.40 ID:O5ET7Lyz0 わら。×規定 自分がわかってませんでした。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/177
178: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.200]) [] 2019/10/10(木) 02:31:31.78 ID:eF+ihzDEM グレブナー基底は重要だな http://mevius.5ch.net/test/read.cgi/tech/1568506986/178
179: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230]) [] 2019/10/10(木) 06:52:08.55 ID:H/x/U9NKM >>160 勉強のためにスクラッチで書くならpythonがオススメ。ネットに情報が多いから 仕事のためならC一択 http://mevius.5ch.net/test/read.cgi/tech/1568506986/179
180: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230]) [] 2019/10/10(木) 06:53:03.85 ID:H/x/U9NKM >>169 何故そこでcolabが出さない http://mevius.5ch.net/test/read.cgi/tech/1568506986/180
181: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.153.117]) [sage] 2019/10/10(木) 10:19:46.41 ID:xGOoNgUAa 統計学を理解できていないのに理解したと思い込んだ人はこういう頓珍漢なことを平気で言い出す @Inetgate: @usukutilife @u874072e 一般的な統計処理において、標本数が30を超える場合には正規分布を仮定できますが、 えん さんが調べた結果だと全然正規分布になってないので、食べログの数値操作疑惑、真っ黒じゃねーかと。 https://twitter.com/Inetgate/status/1181488204068749312 https://twitter.com/5chan_nel (5ch newe
r account) http://mevius.5ch.net/test/read.cgi/tech/1568506986/181
182: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230]) [sage] 2019/10/10(木) 10:23:07.08 ID:H/x/U9NKM 母集団の分布が正規分布に従うと"仮定"すれば、間違ってない意見だな 仮定すれば http://mevius.5ch.net/test/read.cgi/tech/1568506986/182
183: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.224.230]) [sage] 2019/10/10(木) 10:25:56.74 ID:H/x/U9NKM って、もとのグラフをみたらbin数がやばかった・・・ http://mevius.5ch.net/test/read.cgi/tech/1568506986/183
184: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.59.242]) [sage] 2019/10/10(木) 14:07:25.58 ID:9SEfnsqfa 標本抽出の仕方がランダムサンプリングで 母集団が正規分布の時だけに成り立つことを言っているな http://mevius.5ch.net/test/read.cgi/tech/1568506986/184
185: デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111]) [sage] 2019/10/10(木) 18:30:07.85 ID:7gKn5Xz20 競馬あてて見たいんだけど特徴量として前5走を使いたいんだけどどんな実装にすればいいのかな どなたかヒントいただけないでしょうか http://mevius.5ch.net/test/read.cgi/tech/1568506986/185
186: デフォルトの名無しさん (ワイーワ2 FF93-1wBF [103.5.142.122]) [] 2019/10/10(木) 18:50:01.66 ID:i+8+28k+F 前走の結果より血統でやった方が良いって先輩は言ってた http://mevius.5ch.net/test/read.cgi/tech/1568506986/186
187: デフォルトの名無しさん (ワッチョイ e377-vt6R [115.38.57.104]) [sage] 2019/10/10(木) 18:56:00.12 ID:cL0M7hVK0 入力で与えるのが出馬一覧とかで順番の意味を無くしたいならPointNetとかの構造を真似したりすればいいんじゃない http://mevius.5ch.net/test/read.cgi/tech/1568506986/187
188: デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.129.72]) [sage] 2019/10/10(木) 21:27:00.23 ID:aZnaY5Is0 >>180 あれ、逆にわかりずらいと思うんだが。 環境設定がすげーわかりずれーわ。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/188
189: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.56.45]) [sage] 2019/10/10(木) 23:11:06.33 ID:bdrwblpoa >>185 ググればソースコード付きでいろいろ出てくるが http://mevius.5ch.net/test/read.cgi/tech/1568506986/189
190: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/11(金) 08:18:38.76 ID:mCGV3tUv0 >>184 中心極限定理の話しで 標本数を30にした平均値の分布は 元の分布に関係なく正規分布とみなせるって事だよな 食べログの分布もその分布から標本を30取り出して 平均値を求める操作を10000回繰り返して 平均値の分布を描くと正規分布に近くなるはず http://mevius.5ch.net/test/read.cgi/tech/1568506986/190
191: デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111]) [sage] 2019/10/11(金) 11:53:47.65 ID:BrwAZKhG0 >>186 血統も絡めてるよていだけど、前走も大事かなと思いまして。 >>187 前走ではAの馬に負けてるから今回も厳しそう、とかの特徴を抽出したいなと思いまして、順序はそれなりに大事なのかなと考えています。 >>189 巷にあるコードよりも、より順序を重視する方法が無いものかなと。 数値やカテゴリーなどの特徴ではなく、多次元特徴を一つの特徴量として扱うことができないかなという感じです。 http://mevi
us.5ch.net/test/read.cgi/tech/1568506986/191
192: デフォルトの名無しさん (ワイーワ2 FF93-1wBF [103.5.142.233]) [] 2019/10/11(金) 11:58:01.09 ID:hkXt1GtmF 重量ハンデは? http://mevius.5ch.net/test/read.cgi/tech/1568506986/192
193: デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.81]) [sage] 2019/10/11(金) 14:41:23.78 ID:uWNk0GcMM アルバイトでデータ解析やってる人間の意見としては、 とにかく役立ちそうな特徴量を選択せずにぶち込めるだけぶち込んで、 一度xgbかcgbを回してみればいいんじゃない そうすれば重要な特徴量が何か抽出できるでしょ 話はそれからよ 勝ち馬をよく当てる人が何を大切にしているか調べることからはじめるべき http://mevius.5ch.net/test/read.cgi/tech/1568506986/193
194: デフォルトの名無しさん (ワッチョイ 7dda-C28+ [114.187.197.203]) [sage] 2019/10/12(土) 10:11:52.93 ID:UGc1lgsI0 馬を株の銘柄に置き換えてリターンとリスク(分散)を元に 共分散使って有効フロンティアの曲線を引いて 無差別曲線と接する部分の比を見てパーセンテージの高い順に馬を買うってのは? http://mevius.5ch.net/test/read.cgi/tech/1568506986/194
195: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 00:20:47.58 ID:kaSZg9r20 >>184 すでに指摘されているが、母集団の分布は正規分布である必要はない >>190 中心極限定理の話(前半の話)はそうだけども、後半の部分は何が言いたいのかよく分からない 食べログの評点は一人当たり整数値の1~5を付けられる(ある店舗における点数分布をAとする) 各店舗は添付ごとにN人の評価の平均を平均点として算出する(各店舗の平均点分布をBとし、これが話題となっている分布) Aの採点を行うのが一般人であると仮
定すると、各店舗は同一の母集団確率分布に従うものと仮定でき、各店舗の確率変数X1, X2, …, XNは同一の母集団確率分布からのランダムサンプルと考えられる 大数の法則により、標本平均(分布Bのこと)は母集団の平均に近づき正規分布になる 標本数30以上というのはNが30以上ということで、この部分は残念ながら自明ではない ある焼肉屋の評価は67件から構成されているが、別の焼肉屋は2件となっている つまり最大限「食べログ」を擁護するのであれば、標本数が30以上ではないため前提条件が間違っている、ということだろうか http://mevius.5ch.net
/test/read.cgi/tech/1568506986/195
196: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.152.98]) [sage] 2019/10/13(日) 00:57:27.47 ID:0ePwtCDKa 各店の平均化する前の採点が同一母集団に従うという仮定に無理がありすぎる 例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然 http://mevius.5ch.net/test/read.cgi/tech/1568506986/196
197: デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156]) [sage] 2019/10/13(日) 00:59:42.54 ID:kaSZg9r20 >>196 すまん、焼肉屋しか見てなかった 実にその通り http://mevius.5ch.net/test/read.cgi/tech/1568506986/197
198: デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168]) [] 2019/10/13(日) 06:54:46.01 ID:ObLeezZqa >>159 Juliaでしょう。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/198
199: デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168]) [] 2019/10/13(日) 06:56:55.49 ID:ObLeezZqa >>160 Flux http://mevius.5ch.net/test/read.cgi/tech/1568506986/199
200: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 07:21:13.99 ID:Fxu1r5BT0 >>195 大数の法則は標本数を増やすと標本平均が母平均に近づくということ 中心極限定理は平均値の分布に関する定理 食べログの評価の数が30になった時点で平均値を計算して 一度リセットするのを繰り返す その平均値の分布は正規分布に近づく 今の評価の分布がその店に行く人の評価の分布を表している のであれば今の評価分布から30標本を取って平均値を求める 操作を復元抽出で繰り返しても同じような結果になるだろう http:
//mevius.5ch.net/test/read.cgi/tech/1568506986/200
201: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 07:23:54.12 ID:Fxu1r5BT0 ある店の評価分布は標本数が多くなっても正規分布になるとは言えない 分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる その店の特徴が分布に反映される 同様に店を評価する側の特徴も反映されるだろう http://mevius.5ch.net/test/read.cgi/tech/1568506986/201
202: デフォルトの名無しさん (ブーイモ MM89-ToAo [202.214.125.165]) [sage] 2019/10/13(日) 07:58:04.98 ID:S6cUkNQoM 深層学習の凄いことのひとつは特徴量を人が設計する必要がない、と本とかに書いてありますが、どう理解すればいいのか分からず教えてください! ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? ) http://mevius.5ch.net/test/read.cgi/tech/1568506986/202
203: デフォルトの名無しさん (ワッチョイ 8302-o74w [101.142.8.160]) [sage] 2019/10/13(日) 08:07:52.14 ID:A69S9ntC0 レビューを投稿する行動を取る時点で母集団にサンプルバイアス http://mevius.5ch.net/test/read.cgi/tech/1568506986/203
204: デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156]) [sage] 2019/10/13(日) 08:55:43.76 ID:kaSZg9r20 >>201 言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ 食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか? あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか http://mevius.5ch.net/test/read.cgi/tech/1568506986/204
205: デフォルトの名無しさん (アウアウカー Sa51-vt6R [182.251.195.232]) [sage] 2019/10/13(日) 09:26:19.57 ID:vNAU+AUMa >>201 各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ http://mevius.5ch.net/test/read.cgi/tech/1568506986/205
206: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.154.80]) [sage] 2019/10/13(日) 10:08:21.52 ID:uKg8mtfTa 中心極限定理はあくまで「同一の母集団から得た独立な確率変数であれば、十分な数の平均値を集めたものの分布が正規分布に近似できる」というもの 全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理 http://mevius.5ch.net/test/read.cgi/tech/1568506986/206
207: デフォルトの名無しさん (ワッチョイ 653c-3Hkb [118.240.95.156]) [sage] 2019/10/13(日) 10:56:42.24 ID:kaSZg9r20 >>206 個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど 同じ基準ではないにしろ、少し幅をつけてみよう 個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする 正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布 一様分布で採点する者は、分布関
数の底上げにはなるが平均値には影響を与えない 同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる 毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う http://mevius.5ch.net/test/read.cgi/tech/1568506986/207
208: デフォルトの名無しさん (ワッチョイ 9501-o74w [126.25.129.72]) [sage] 2019/10/13(日) 12:13:54.05 ID:pJwii1Hg0 >>202 多分、画像データを深層学習(ニューラルネット)で学習することを念頭に置いてる話だろう。 もっと広い文脈で使えるときもあるがたいていは画像でうまくいった話を誇張して言ってることが多い。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/208
209: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 12:41:16.37 ID:Fxu1r5BT0 >>205 平均値についても同様の事が言える 仮に評価する側が同じだとしても 店舗の特徴によって分布の形は変わる 分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス が本来目標としたものかもしれない 分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う http://mevius.5ch.net/test/read.cgi/tech/1568506986/209
210: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 12:44:15.71 ID:Fxu1r5BT0 >>207 評価尺度はただの順序尺度で間隔尺度ではないだろう http://mevius.5ch.net/test/read.cgi/tech/1568506986/210
211: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.4]) [] 2019/10/13(日) 12:53:02.60 ID:sm0sVhGqM >>159 大規模ですけどC、C++、アセンブラです。 現在、全部で数百万ステップです http://mevius.5ch.net/test/read.cgi/tech/1568506986/211
212: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 13:19:59.66 ID:kaSZg9r20 いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた 改めてデータに立ち戻ろう 3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ 逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ 次に3.8に
ギャップがある理由を考えてみる 元のデータを見た所、2つのガウス関数の和で表現できそうだ 一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある この2つのガウス関数が意味するところは ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、 あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、 はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違
いを表すのか ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ http://mevius.5ch.net/test/read.cgi/tech/1568506986/212
213: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 13:25:37.35 ID:Fxu1r5BT0 操作がなかったという帰無仮説を棄却できるかどうかじゃね? http://mevius.5ch.net/test/read.cgi/tech/1568506986/213
214: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [] 2019/10/13(日) 13:39:33.29 ID:kaSZg9r20 >>202 まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ 少し古いけど https://deepage.net/deep_learning/2016/11/07/convolutional_neural_network.html にある CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく ということなんだろう RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってこと
ではないよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/214
215: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 13:45:19.51 ID:48i2xCpca 三層のニューラルネットワークでは xor を分離できないという問題は さらに多層になったことで何で解消されたの? http://mevius.5ch.net/test/read.cgi/tech/1568506986/215
216: デフォルトの名無しさん (ワッチョイ e394-P4H7 [115.37.73.212]) [sage] 2019/10/13(日) 14:17:08.81 ID:25TC8kRG0 3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる https://i.imgur.com/NrNIWrn.jpg 平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000) ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない http://mevius.5ch.net/test/read.cgi/tech/1568506986/216
217: デフォルトの名無しさん (アウアウエー Sa13-P4H7 [111.239.178.130]) [sage] 2019/10/13(日) 14:21:02.62 ID:qY0pTgmia >>213 操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから しかしそんなもの知り得ないので検定のしようがない http://mevius.5ch.net/test/read.cgi/tech/1568506986/217
218: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 14:23:09.86 ID:llG9wcVha >>215 出来ないのは2層 3層にすると一度高次元空間に写してからシンプルな境界で分離出来る http://mevius.5ch.net/test/read.cgi/tech/1568506986/218
219: デフォルトの名無しさん (ブーイモ MM59-ToAo [210.138.208.219]) [sage] 2019/10/13(日) 14:45:50.67 ID:TJDkUn5hM >>208 >>214 ありがとうございます。ほぼCNNのことと思って良さそうなんですね CNNが凄い!っことを深層学習という言葉に拡大して凄い!って言ってるイメージですね http://mevius.5ch.net/test/read.cgi/tech/1568506986/219
220: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 15:01:05.43 ID:kaSZg9r20 >> 215 細かいけど、まず層の数え方から 入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる 次にXORはなぜ2層で表現可能か 単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから ググったら以下のような図を見つけた https://www.infiniteloop.co.jp/blog/wp-content/uploads/2017/12/XOR.png >>218の回答はエレガントだけども、少し説明を加えると (0, 0) → 0 (0, 1) → 1 (1, 0)
→ 1 (1, 1) → 0 を分ける直線は2次元平面内では書けないけど、3次元に拡張して (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面) a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる http://mevius.5ch.net/test/read.cgi/tech/1568506986/220
221: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 18:39:55.88 ID:48i2xCpca 二層あれば大抵の関数は模倣できるのに 何でもっと多層が必要なの? http://mevius.5ch.net/test/read.cgi/tech/1568506986/221
222: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 18:43:34.64 ID:Fxu1r5BT0 >>217 諦めたらそこで試合終了ですよ 目の前にヒントが転がっていても見えなくなる http://mevius.5ch.net/test/read.cgi/tech/1568506986/222
223: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 18:44:48.26 ID:Fxu1r5BT0 >>218 線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して http://mevius.5ch.net/test/read.cgi/tech/1568506986/223
224: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:30:49.94 ID:llG9wcVha >>221 層を増やす方が効率が高い ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない http://mevius.5ch.net/test/read.cgi/tech/1568506986/224
225: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 19:32:44.25 ID:llG9wcVha >>223 一旦中間層のニューロン数だけの次元を持つ空間を経由できるから http://mevius.5ch.net/test/read.cgi/tech/1568506986/225
226: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/13(日) 20:04:55.16 ID:Fxu1r5BT0 >>225 線型結合して関数を通して また線型結合して関数を通して の繰り返しでなぜ高次元になるの? 関数によって非線形になるなら判るけど http://mevius.5ch.net/test/read.cgi/tech/1568506986/226
227: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 20:33:11.99 ID:llG9wcVha >>226 非線形な活性化関数噛ませるでしょ普通 自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから http://mevius.5ch.net/test/read.cgi/tech/1568506986/227
228: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 20:44:50.78 ID:/3kPh57iM ディープキスのほうがいい! 舌をからませるの 立つよね! http://mevius.5ch.net/test/read.cgi/tech/1568506986/228
229: デフォルトの名無しさん (ワッチョイ 9501-qBpa [126.25.131.86]) [sage] 2019/10/13(日) 20:48:48.51 ID:P1vmVh210 >ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない こんなことを示した論文などない。 よくこんなことをさも証明されたことの如く言えるな。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/229
230: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:28:26.53 ID:kaSZg9r20 >>221 本質的な質問が来た これについては俺も明確な答えは持ってないなぁ 直感的には、多層の方が中間層に保持できるパラメータ数が多く そこには活性化関数を通した非線形の効果も含まれているので ほどほどにノイズが消されていて抽象的な状態を保持できるから と思うんだが、本当かどうかは分からない http://mevius.5ch.net/test/read.cgi/tech/1568506986/230
231: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/13(日) 21:37:08.64 ID:llG9wcVha >>229 Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014. NIPSの論文だが 何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか http://mevius.5ch.net/test/read.cgi/tech/1568506986/231
232: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:45:22.38 ID:kaSZg9r20 >>226 ちょうどいいので>>220で示したXORを例に説明しよう 入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う つまり (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる すなわちx3をx1, x2から作れれば良いので a = w11・x1 + w12・x2 b = w21・x1 + w22・x2 c = w31・x1 + w32・x2 d = w4
1・x1 + w42・x2 として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである つまり層を1層増やすということは、次元を増やすことと同値である http://mevius.5ch.net/test/read.cgi/tech/1568506986/232
233: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 21:46:31.38 ID:kaSZg9r20 >>226 ちょうどいいので>>220で示したXORを例に説明しよう 入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う つまり (0, 0, a) → 0 (0, 1, b) → 1 (1, 0, c) → 1 (1, 1, d) → 0 が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる すなわちx3をx1, x2から作れれば良いので a = w11・x1 + w12・x2 b = w21・x1 + w22・x2 c = w31・x1 + w32・x2 d = w4
1・x1 + w42・x2 として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである つまり層を1層増やすということは、次元を増やすことと同値である http://mevius.5ch.net/test/read.cgi/tech/1568506986/233
234: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.16]) [sage] 2019/10/13(日) 22:05:13.10 ID:48i2xCpca 五、六層でいいのかと思いきや ものすごく多層にするよねえ うまくいくからという説明しかないのか? http://mevius.5ch.net/test/read.cgi/tech/1568506986/234
235: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/13(日) 22:18:18.69 ID:/3kPh57iM >>221 〉二層あれば大抵の関数は模倣できる その『大抵』とは、どの程度なんですか? それが示されてないのですから まったく意味をなさないですよね? >>230 その意味をなさない書き込みに、 本質的とかって、 レベル低すぎですね。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/235
236: デフォルトの名無しさん (ワッチョイ 0da5-X53N [42.127.86.111]) [sage] 2019/10/13(日) 22:20:28.84 ID:mSmeGM2p0 >>235 完全な関数の導入じゃなくて疑似的な関数が解ればいいから http://mevius.5ch.net/test/read.cgi/tech/1568506986/236
237: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/13(日) 22:35:14.55 ID:kaSZg9r20 >>235 あんたは性格悪いなぁ・・・ ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ? 知ってて聞いてるなら教えてやれよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/237
238: デフォルトの名無しさん (アウアウカー Sa51-CdT3 [182.251.155.10]) [sage] 2019/10/14(月) 00:26:24.00 ID:Xj3JYQcoa 専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる http://mevius.5ch.net/test/read.cgi/tech/1568506986/238
239: デフォルトの名無しさん (アウアウエー Sa13-NJTS [111.239.57.6]) [sage] 2019/10/14(月) 00:50:17.12 ID:yAy44Gfva 初等関数? 特殊関数? http://mevius.5ch.net/test/read.cgi/tech/1568506986/239
240: デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129]) [] 2019/10/14(月) 07:16:20.36 ID:KQ95R8h/0 >>232 それだと x1, x2の入力を受けるニューロンと それからx3を計算するニューロンを並列に並べたら良い x1-x1\ x2-x2-out \x3/ みたいに 次元を増やすの意味として変数増加とx^2などと混同しやすい これらを区別する言い方は何? 変数増加→高次元 x^2など→非線形 とか? http://mevius.5ch.net/test/read.cgi/tech/1568506986/240
241: デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/14(月) 12:29:28.91 ID:utYACZDud 前に『ゼロから作るディープラーニング』買ったけど これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。 やっぱノートに書いて解き方や意味を学習するしかないと思うねん。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/241
242: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 12:54:25.27 ID:syyLl6c1M >>241 ならば『excelでわかるディープラーニング超入門』がオススメ 続編もある http://mevius.5ch.net/test/read.cgi/tech/1568506986/242
243: デフォルトの名無しさん (ワッチョイ 35b0-+TD/ [180.29.199.198]) [sage] 2019/10/14(月) 13:19:28.08 ID:aq/jCORe0 >>241 あの本は線型代数と微積分の知識は必須だと思う http://mevius.5ch.net/test/read.cgi/tech/1568506986/243
244: デフォルトの名無しさん (ワッチョイ a3bd-NJTS [157.192.94.92]) [sage] 2019/10/14(月) 13:53:05.51 ID:pO8Bz3ni0 機械学習に数学はいらないよ http://mevius.5ch.net/test/read.cgi/tech/1568506986/244
245: デフォルトの名無しさん (オッペケ Sr61-B2ag [126.255.17.59]) [] 2019/10/14(月) 14:01:22.69 ID:htBbaZR2r 機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」 http://mevius.5ch.net/test/read.cgi/tech/1568506986/245
246: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 14:23:44.68 ID:syyLl6c1M ソフト使うだけなら数学いらんわね http://mevius.5ch.net/test/read.cgi/tech/1568506986/246
247: デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173]) [sage] 2019/10/14(月) 14:26:05.12 ID:daX/fZMnF 適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要 普通の企業や研究室ではそんなものに金なんて出してくれないがな http://mevius.5ch.net/test/read.cgi/tech/1568506986/247
248: デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6]) [] 2019/10/14(月) 14:31:10.41 ID:JdA0BOgta >>247 そういう仕事は既にAutoMLに取られつつあるね http://mevius.5ch.net/test/read.cgi/tech/1568506986/248
249: デフォルトの名無しさん (アメ MM29-2D7i [218.225.236.127]) [sage] 2019/10/14(月) 14:31:49.76 ID:XFqMr8NbM というかこの世界ももう土方がいるのか http://mevius.5ch.net/test/read.cgi/tech/1568506986/249
250: デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156]) [sage] 2019/10/14(月) 14:40:16.73 ID:VuPQ6UMJ0 >>240 並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ 0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので 言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している もう少し詳しく説明しよう より一般的な関数があったとして、入力が(x1, x2)のと
き、最後の出力層への入力としては (f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1) となっている Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる (1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる 隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep L
earningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある 単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない http://mevius.5ch.net/test/read.cgi/tech/1568506986/250
251: デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69]) [] 2019/10/14(月) 14:42:39.82 ID:syyLl6c1M 最初から土方しかいないから。 今もほとんど土方。 できる人は研究者か大学教員になってる。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/251
252: デフォルトの名無しさん (ミカカウィ FF59-CdT3 [210.160.37.173]) [sage] 2019/10/14(月) 14:47:46.87 ID:daX/fZMnF この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象 http://mevius.5ch.net/test/read.cgi/tech/1568506986/252
253: デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97]) [] 2019/10/14(月) 15:08:32.93 ID:utYACZDud >>242 ありがとう。調べてみます。 http://mevius.5ch.net/test/read.cgi/tech/1568506986/253
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 749 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.026s