[過去ログ]
【統計分析】機械学習・データマイニング29 (1002レス)
【統計分析】機械学習・データマイニング29 http://mevius.5ch.net/test/read.cgi/tech/1597882603/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
823: デフォルトの名無しさん (ワッチョイ 5902-LBAI [118.154.96.7]) [sage] 2020/12/10(木) 21:40:43.82 ID:4I880zB/0 >>820 確率的勾配降下でも、学習率εが十分に小さければ近づく、とされてるね 証明もされてるんだとは思うけど、どこ見ればいいとかは俺はわからない ところで、欲しいのは極小解じゃなくて大域的最適解だよね? 極小値でよければ最急降下法が一番収束が速い 1サンプルずつ学習する確率的…は極小値にはまらない可能性は高いけど重すぎる バランスを取ったのがバッチ学習 http://mevius.5ch.net/test/read.cgi/tech/1597882603/823
824: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:40:45.06 ID:3MNDS+Jy0 >>816 自分で実験してみるのが1つの方法 初期化後に全データで評価値を計算して 簡単なNNを作ってデータ1つで重みを更新してから 全データで評価値を再計算する 多分増える事もあると思うけどデータを変えて重みを更新していく事で徐々に出力と正解の誤差が小さくなっていくと思う 同じ出力をする入力は同じニューロンが発火して 別の出力をする入力はそれと違うニューロンが発火するよつな感じに学習が進んでいくのかな http://mevius.5ch.net/test/read.cgi/tech/1597882603/824
825: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:45:21.96 ID:3MNDS+Jy0 >>820 勾配降下法は深層学習に限らず研究されているんじゃないかと思う そっち方面で局所的最適値を得られる条件とか判ってるかもしれない 凸関数とかそんなのが条件になっていたりするかも http://mevius.5ch.net/test/read.cgi/tech/1597882603/825
826: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 22:51:59.08 ID:3MNDS+Jy0 思い出した 鞍点とかあるとそこで止まるとかあったような http://mevius.5ch.net/test/read.cgi/tech/1597882603/826
827: デフォルトの名無しさん (ワッチョイ e901-qdUP [126.25.239.8]) [sage] 2020/12/10(木) 23:37:19.21 ID:feZOjJB+0 正しいけれど全く意味のない話というやつだな。 http://mevius.5ch.net/test/read.cgi/tech/1597882603/827
828: デフォルトの名無しさん (ササクッテロ Spa5-t6eo [126.33.131.200]) [sage] 2020/12/11(金) 09:59:56.91 ID:YXM/kAxOp 意味があるかは解釈によっても変わる 道具が同じでも上手く使える人とそうではない人がいる 既存の技術を上手く使って問題解決できた人もいるからな http://mevius.5ch.net/test/read.cgi/tech/1597882603/828
829: デフォルトの名無しさん (ワッチョイ a1da-9ESD [114.183.142.212]) [sage] 2020/12/11(金) 10:40:32.12 ID:Fdk3ZWWm0 馬鹿アスペの相手してる5902-LBAIだろ http://mevius.5ch.net/test/read.cgi/tech/1597882603/829
830: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/11(金) 11:31:24.82 ID:SUhg1yPU0 みなさん,ありがとうございました. いろいろな日本語のディープラーニングの本を見てみましたが,確率的勾配降下法がなぜうまくいのかについての説明は全くありませんでした. http://mevius.5ch.net/test/read.cgi/tech/1597882603/830
831: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/11(金) 11:34:06.26 ID:SUhg1yPU0 まるで,うまくいくのが自明であるかのような扱いです. 確率的勾配降下法に限らず,この分野は常にこのような感じですよね. http://mevius.5ch.net/test/read.cgi/tech/1597882603/831
832: デフォルトの名無しさん (ワッチョイ a1da-9ESD [114.183.142.212]) [sage] 2020/12/11(金) 12:05:23.95 ID:Fdk3ZWWm0 1355-orE1は馬鹿アスペなのでスルーよろしく http://mevius.5ch.net/test/read.cgi/tech/1597882603/832
833: デフォルトの名無しさん (ワッチョイ 5952-74Z4 [118.243.75.50]) [sage] 2020/12/11(金) 12:12:51.28 ID:vXWM25Of0 わかんないことがあれば自分で調べればいいのにね(笑) http://mevius.5ch.net/test/read.cgi/tech/1597882603/833
834: デフォルトの名無しさん (ワッチョイ a1da-9ESD [114.183.142.212]) [sage] 2020/12/11(金) 12:31:18.86 ID:Fdk3ZWWm0 馬鹿アスペは岡山県なんだ http://mevius.5ch.net/test/read.cgi/tech/1597882603/834
835: デフォルトの名無しさん (オッペケ Sra5-6xLJ [126.208.198.69]) [] 2020/12/11(金) 12:57:31.82 ID:P9V8rC1yr >>830 この辺の理論が解明され始めたのは去年頃からだから、まだ本にはなってないよ 知りたければ論文読むかslideshareを探すといい http://mevius.5ch.net/test/read.cgi/tech/1597882603/835
836: デフォルトの名無しさん (ワッチョイ 7901-MC0k [60.69.230.42]) [sage] 2020/12/11(金) 13:21:05.48 ID:Wsx93R0l0 馬鹿と決めつけるより具体的に反論した方が生産的な気もする http://mevius.5ch.net/test/read.cgi/tech/1597882603/836
837: デフォルトの名無しさん (アウアウウー Safd-t6eo [106.154.8.245]) [sage] 2020/12/11(金) 14:21:14.42 ID:keBMi+cGa 深層学習じゃない機械学習では誤差が小さくなる事とか条件とか証明されていると思うけどな 深層学習もそれからの類推か包含しているかじゃないか? http://mevius.5ch.net/test/read.cgi/tech/1597882603/837
838: デフォルトの名無しさん (アウアウウー Safd-orE1 [106.154.128.125]) [sage] 2020/12/11(金) 14:24:14.84 ID:76SqqmH2a >>831 発表されていないけど考えられる限りの それ以外の方法を 多数の人が試していて 性能が出ないので発表されていないだけ 技術の分野ではよくあるんだよな それを知らないと時間を大きく損する http://mevius.5ch.net/test/read.cgi/tech/1597882603/838
839: デフォルトの名無しさん (ワッチョイ a1da-9ESD [114.183.142.212]) [sage] 2020/12/11(金) 14:59:05.47 ID:Fdk3ZWWm0 荒らしに反論するのが生産的w、2ch素人かよ http://mevius.5ch.net/test/read.cgi/tech/1597882603/839
840: デフォルトの名無しさん (アウアウウー Safd-Y1oi [106.180.11.203]) [sage] 2020/12/11(金) 15:07:06.98 ID:XbH1RnBla 暇な数学者が冷やかしに来たようだ http://mevius.5ch.net/test/read.cgi/tech/1597882603/840
841: デフォルトの名無しさん (ワッチョイ a1da-9ESD [114.183.142.212]) [sage] 2020/12/11(金) 15:58:16.06 ID:Fdk3ZWWm0 数学者?何処にいるの? http://mevius.5ch.net/test/read.cgi/tech/1597882603/841
842: デフォルトの名無しさん (アウアウウー Safd-Y1oi [106.180.11.203]) [sage] 2020/12/11(金) 16:05:14.18 ID:XbH1RnBla 数学徒にしとく http://mevius.5ch.net/test/read.cgi/tech/1597882603/842
843: デフォルトの名無しさん (ワッチョイ 7901-MC0k [60.69.230.42]) [sage] 2020/12/11(金) 16:18:38.39 ID:Wsx93R0l0 荒らしってほどでもないような… 判らないのであれば、判らないと答えればいい。 それか参考になりそうな論文を紹介するとかね。 http://mevius.5ch.net/test/read.cgi/tech/1597882603/843
844: デフォルトの名無しさん (ワッチョイ a1da-9ESD [114.183.142.212]) [sage] 2020/12/11(金) 16:23:08.91 ID:Fdk3ZWWm0 ぷ板にあげるよ、遊んであげてw http://mevius.5ch.net/test/read.cgi/tech/1597882603/844
845: デフォルトの名無しさん (ワッチョイ a1da-kNbH [114.183.142.212]) [sage] 2020/12/11(金) 17:08:46.05 ID:Fdk3ZWWm0 それから馬鹿アスぺはアルゴリズムの本を読んでいてプログラムの才能はないとぷ板の住人にで言われてる http://mevius.5ch.net/test/read.cgi/tech/1597882603/845
846: デフォルトの名無しさん (アウアウエー Sae3-6xLJ [111.239.185.234]) [] 2020/12/11(金) 20:04:32.76 ID:BgeuQOWca >>837 深層学習を従来の理論に当てはめると過学習しまくって使い物にならんはず だが実際学習できて性能も良い この差は既存の理論では最適化(勾配降下法)のダイナミクスが考慮されていないから 最適化までを考慮して統計理論に結びつける研究が近年進んでいる http://mevius.5ch.net/test/read.cgi/tech/1597882603/846
847: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/11(金) 20:20:07.66 ID:5sai34i/0 最適化関連の過去の研究結果が何一つ活用できない? 数学的にある値、例えば誤差がある範囲に入る確率とか、の上限が示されていたりする事は活用できるだろう http://mevius.5ch.net/test/read.cgi/tech/1597882603/847
848: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/11(金) 20:21:49.67 ID:5sai34i/0 他の機械学習に勾配降下と同等の操作をしていないと言うのは何故そう思う? http://mevius.5ch.net/test/read.cgi/tech/1597882603/848
849: デフォルトの名無しさん (アウアウエー Sae3-6xLJ [111.239.185.234]) [] 2020/12/11(金) 20:32:43.52 ID:BgeuQOWca していないなんて言ってないよ。考慮されていないと言っただけ 従来はそれで多いな問題はなかったが、深層学習ではパラメーター空間が広大になり最適化法それ自体の制約としての側面が目立つようになった http://mevius.5ch.net/test/read.cgi/tech/1597882603/849
850: デフォルトの名無しさん (アウアウエー Sae3-6xLJ [111.239.185.234]) [] 2020/12/11(金) 20:36:27.83 ID:BgeuQOWca http://ibis.t.u-tokyo.ac.jp/suzuki/lecture/2020/intensive2/KyusyuStatZemi2020.pdf 最近の深層学習理論が纏められている 読むと良い http://mevius.5ch.net/test/read.cgi/tech/1597882603/850
851: デフォルトの名無しさん (アウアウエー Sae3-6xLJ [111.239.185.234]) [] 2020/12/11(金) 20:40:10.09 ID:BgeuQOWca http://ibis.t.u-tokyo.ac.jp/suzuki/lecture/2020/intensive2/Kyusyu_2020_Deep.pdf http://mevius.5ch.net/test/read.cgi/tech/1597882603/851
852: デフォルトの名無しさん (ブーイモ MM3d-SCev [202.214.231.57]) [] 2020/12/11(金) 20:46:05.84 ID:OnRhFRT3M > お前は毎朝起きるたびに俺に負けたことを思い出すよ^^ あー、ホンッとに思い出すなあ(笑) キチガイの嘘つきの低レベルFランの、 朝鮮ゴキブリBot君は、 チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な ことはよーくわかったよ。 ホントなにもできない朝鮮ゴキブリBot君! クソチョンw Pythonさえろくにできないバカチョンのくせに できるとほざくクソチョンw 日本で強姦と窃盗を繰り返す 犯罪者在日のクソチョンw http://mevius.5ch.net/test/read.cgi/tech/1597882603/852
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 150 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.014s