[過去ログ] 【統計分析】機械学習・データマイニング25 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
36(1): (ワッチョイ cf10-0rME [153.131.102.129]) 2019/06/30(日)08:24 ID:yPGPa9/y0(2/4) AAS
>>31
統計処理にミスがあったら損する事になるけどな
理論も実践も重要
理論的には実現できるけど実際にやろうとすると
見込み利益よりコストがかかって赤字とかのパターンもある
37: (ワッチョイ cf10-0rME [153.131.102.129]) 2019/06/30(日)08:25 ID:yPGPa9/y0(3/4) AAS
>>34
中のライブラリにないものは自分で作るしかない
38: (ワッチョイ cf10-0rME [153.131.102.129]) 2019/06/30(日)08:27 ID:yPGPa9/y0(4/4) AAS
>>33
結果を得るまでに必要な時間が
必要な時間内に収まるかどうかも問題になる事がある
自動運転とか結果を得るまでに5秒とかかかってたら役に立たない
39: (ササクッテロ Spe7-9deW [126.35.202.249]) 2019/06/30(日)09:10 ID:TWP8jH/Lp(1) AAS
>>32
個人的には電気回路設計にかなり近いと感じている
新しい回路を設計する人はもはや殆どいない
トラ技等の雑誌を見てノウハウを学びつつ、実務では完成されたネットワークを使って変更点のある部分はPICやFPGAでなんとかする感じ
40: (オッペケ Sre7-PMiR [126.133.237.254]) 2019/06/30(日)11:21 ID:jWRw+Abgr(1) AAS
回路パラメータは計算で決められるけど機械学習のハイパーパラメータはそうはいかないんだよな
41: (ワッチョイ a301-tMZp [126.46.109.25]) 2019/07/01(月)07:32 ID:q9wsKKUp0(1) AAS
>>36
コストの方がかさむなら理論の時点で間違いだろw
42: (アウアウウー Sa47-CYTO [106.180.21.39]) 2019/07/01(月)12:11 ID:fT9264MBa(1) AAS
理論が間違いというか、細かい人件費や手数料などどこまで計算に入れるかの問題だろう
あまり具体的に入れすぎても汎用性がなくなって使いにくくなるし、逆にシンプル化しすぎると現実とのズレが大きくなる
43: (ワッチョイ bf3e-hd/a [149.54.201.210]) 2019/07/01(月)22:39 ID:YCDqSDsZ0(1) AAS
人間って視点を移動しながら視野の全体を認識してるけど
これをAIの画像認識にも応用すれば学習コストって大分少なくできるような気がするな
視点の中心に特徴量を集中させればいいだけだからかなり効率的だと思う
44: (トンモー MM07-L5e7 [210.142.95.7]) 2019/07/02(火)01:31 ID:8Bl6T7otM(1) AAS
だからさ、そんなこと誰でも考えるの
アイデアを形にして結果を出せなければ
ただの馬鹿でしかないから。
45(1): (ワッチョイ 6fda-Eaty [223.218.106.241]) 2019/07/02(火)09:12 ID:5vJ5v7kD0(1) AAS
どこに視点を合わせるの?馬鹿乙
46(1): (ワッチョイ 7f69-a57L [123.198.236.173]) 2019/07/02(火)09:15 ID:NRRlQ2YU0(1/2) AAS
ランダムフォレスト分類の予測結果に「A」「B」「C」があった場合、
それ以外に確信度が低ければ「わからない」というラベルを
出力することができますか?
それかテスト入力データを与えたら、予測結果だけでなく
確信度的なものを数値で把握したい。
ランダムフォレストは多数決で判定結果を決めているということは
複数の木での意見の一致度とか意見が割れているとかが算出できるのでは
ないかと思います。
判定を間違えるくらいなら「わからない」と言ってくれたほうがいいので。
ランダムフォレスト回帰でも同様のことをしたいです。
pythonのscikit learn RandomForestでこのような機能があったら
教えて頂けるとありがたいです。
47: (ワッチョイ 537c-a57L [122.215.159.99]) 2019/07/02(火)09:56 ID:dJ0Zw08U0(1) AAS
そうだな
AIにDNAやRNAと代謝を完全にエミュレーションさせればきっと完璧なはず
48(1): (アウアウクー MMe7-Dq7D [36.11.224.11]) 2019/07/02(火)11:33 ID:nAZVCx2TM(1/2) AAS
>>46
できるし
積極的にそういうふうに実装すべき
49(2): (ワントンキン MM1f-hd/a [153.237.197.220]) 2019/07/02(火)12:15 ID:ZrD9hZSYM(1/3) AAS
>>45
お前がものを見るときはどうやって視点合わせてんの?
50(1): (アウアウカー Sa27-+WBJ [182.251.116.17]) 2019/07/02(火)12:18 ID:JStFQcXaa(1) AAS
>>49
それ医学的科学的に説明できる人いないだろwww
アホすぎwww
51(1): (ワッチョイ 7f69-a57L [123.198.236.173]) 2019/07/02(火)13:09 ID:NRRlQ2YU0(2/2) AAS
>>48
すみません、メソッドレベルで教えて頂けると助かります。
該当するメソッドやインスタンス変数などを教えてください。
scikitlearnの RandomForestClassifierと
RandomForestRegressionです。
52: (ワッチョイ 6fda-Eaty [223.217.186.101]) 2019/07/02(火)14:13 ID:jPAJFgo/0(1/2) AAS
>>49
真性の馬鹿か
53: (ワッチョイ 6fda-Eaty [223.217.186.101]) 2019/07/02(火)14:27 ID:jPAJFgo/0(2/2) AAS
ど素人の思い付きであった
54(1): (スッップ Sd9f-+7NB [49.98.175.143]) 2019/07/02(火)17:45 ID:Htg23ge5d(1) AAS
知ってる人教えてください。
scikitのmlpとRのnnetで同じネットワークサイズにしてるのに、mlpの方が精度がかなり悪いです。どのパラメータをいじれば整合が取れるでしょうか。
nnetのdecay に対応するのがalpha?
55(1): (ワントンキン MM1f-hd/a [153.237.197.220]) 2019/07/02(火)18:24 ID:ZrD9hZSYM(2/3) AAS
>>50
世界中さがしても説明できるやついないのかw
そっかw
56: (アウアウクー MMe7-Dq7D [36.11.224.11]) 2019/07/02(火)18:51 ID:nAZVCx2TM(2/2) AAS
┐('〜`;)┌
57(2): (ワッチョイ cfe3-5hf/ [153.129.122.240]) 2019/07/02(火)18:52 ID:3oE2jsEk0(1) AAS
>>55
50だがそういう意味で言ったんだぞ
お前は余計な事考えずに勉強しろ
58(1): (ワントンキン MM1f-hd/a [153.237.197.220]) 2019/07/02(火)19:09 ID:ZrD9hZSYM(3/3) AAS
>>57
何が言いたいのかさっぱりわからん
説明できるやつがいないから実装は不可能だと言いたいのか?
それとも説明できるやつがいないからここで議論してもしょうがないよねって言いたいのか?
どちらにせよ論理破綻してるぜ?
59: (ワッチョイ 73da-Eaty [114.185.8.209]) 2019/07/02(火)19:23 ID:dVl3gaEw0(1) AAS
>>58
お前は馬鹿だとみんなが言ってるだけだよ
60: (アウウィフ FF47-RNYM [106.171.87.2]) 2019/07/03(水)14:44 ID:aJKbsp3mF(1) AAS
med
61: (アークセー Sxe7-eqpR [126.244.178.215]) 2019/07/03(水)18:44 ID:I+RRGz+cx(1/2) AAS
>>51
誰も答えてあげてなくてかわいそうになってきた
predict_probaで確率出るからそれで弾いて
62: (トンモー MM07-L5e7 [210.142.95.194]) 2019/07/03(水)19:28 ID:WSmCNIQKM(1) AAS
>>57
勉強してる人が5chなんて見るかよ馬鹿
63(1): (アークセー Sxe7-eqpR [126.244.178.215]) 2019/07/03(水)19:28 ID:I+RRGz+cx(2/2) AAS
>>54
Rの方はよく知らないけど整合取るには双方のヘルプ・ソースコードとニラメッコじゃないだろうか
nnetのオプティマイザはBFGSだけどscikitのsolverはデフォルトでadam
nnetの損失関数はLeast Squareだけどscikitの方はLog-loss
ヘルプを見る限りnnetのdecayとscikitのmlpのalphaは同じように見える
両方ともL2正則化のペナルティを表すもので、Rのデフォルトが0でscikitのデフォルトが0.0001
いろいろ違いそうだね
64: (ワッチョイ a3da-L2sV [220.221.0.247]) 2019/07/04(木)06:29 ID:1rU6DVfo0(1) AAS
>>63
ありがとうございます。
なるほど、正則化パラメータ以外もいろいろ違うとこがあるんですね。
整合を取りたいと書いちゃってたのですが、一番の目的はscikitでもnnetと同じ精度以上を出したいというところですので試行錯誤してみたいと思います。
65: (アウアウクー MM87-xx9Z [36.11.224.15]) 2019/07/04(木)13:38 ID:kaeCVvj9M(1/2) AAS
ribesがそんなにいいとは思えない
sentencepieceもそんなにいいとは思えない
ゴミみたいな研究だと思う
上下前次1-新書関写板覧索設栞歴
あと 937 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.011s