[過去ログ]
【統計分析】機械学習・データマイニング31 (1002レス)
【統計分析】機械学習・データマイニング31 http://mevius.5ch.net/test/read.cgi/tech/1632587566/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
367: デフォルトの名無しさん (ワッチョイ 3d02-76Y4 [118.154.96.7]) [sage] 2022/01/21(金) 09:59:21.21 ID:+mYnI3nw0 モザイク外してモロ映像ができてたんなら猥褻物陳列罪に問われそうなもんだが違うのか 公開するのにわざわざモザイクかけ直したってことはないよな?w 猥褻物とは認識できないほどクオリティ低かったか http://mevius.5ch.net/test/read.cgi/tech/1632587566/367
530: デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7]) [sage] 2022/05/10(火) 13:14:08.17 ID:zWCxNbfy0 バッチはサイズだけでなくサンプルのまとめ方が重要になる場合も たとえば数字の文字認識をする場合は1つのバッチに0-9のサンプルがバランスよく 含まれるようにした方が学習がうまく行く 逆に、0だけ、1だけとかでバッチを作ってしまうとなかなか収束しなくなる http://mevius.5ch.net/test/read.cgi/tech/1632587566/530
535: デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7]) [sage] 2022/05/10(火) 18:35:36.21 ID:zWCxNbfy0 >>533 俺も論文とかはわからないが教科書に載ってるレベルの話なような バッチのサンプルでまとめて勾配を計算するので、サンプルのバランスが悪いと ウエイトがあっちに行ったりこっちに行ったりしてしまうが、 バランスが良いとあるべき方向に真っ直ぐ進みやすい、ということかなと直感的には理解している http://mevius.5ch.net/test/read.cgi/tech/1632587566/535
539: デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7]) [sage] 2022/05/11(水) 02:35:50.86 ID:n/T4USjf0 確率的勾配降下法と最急降下法が混じってないか? 最急降下法 : 全サンプルで一度に勾配を求めてウエイトを更新 確率的勾配降下法:1サンプル毎に勾配を求めてウエイトを更新 ミニバッチ勾配降下法:ミニバッチ毎に勾配を求めてウエイトを更新 んで >>524- あたりから話してるのはミニバッチ勾配降下法についてね http://mevius.5ch.net/test/read.cgi/tech/1632587566/539
543: デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7]) [sage] 2022/05/11(水) 09:43:34.76 ID:n/T4USjf0 確率的勾配降下法でもミニバッチでもサンプルの与え方が偏るのはダメ 普通は学習ツールがランダムシャッフルしてくれるから気にしなくてもだいたいうまく行くが 性質の違うデータの種類がいっぱいあるような場合はランダムに任せてるとバッチ内のサンプルが 偏りやすくなる場合がある そのため、たいていの学習プラットフォームではバッチを生成する処理を上書きするための 手段が用意されてたりする バッチの処理順序はランダムでok http://mevius.5ch.net/test/read.cgi/tech/1632587566/543
548: デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7]) [sage] 2022/05/11(水) 20:06:44.40 ID:n/T4USjf0 それはなんかズレてるような 学習データでしか学習しない(勾配を求めて降下させることもない)んだから母集団とか持ち出さなくても 確率的と最急降下の本質的な違いは、確率的に学習することによりローカルミニマムを抜け出す チャンスがあるかどうかなのでは そういう意味ではミニバッチ法も確率的だというのはあってると思う http://mevius.5ch.net/test/read.cgi/tech/1632587566/548
550: デフォルトの名無しさん (ワッチョイ 5102-U1YL [118.154.96.7]) [sage] 2022/05/11(水) 20:32:09.62 ID:n/T4USjf0 サンプルの選び方によって勾配が変わるので学習の方向はあっち行ったりこっち行ったりする でもどちらかと言うと正しい方向に進む確率の方がちょっとだけ高い そういう意味で確率的、なんだと思う これはアニーリング問題と同じで、分子を最初は大きくランダムに動かして (でもちょっとだけ正しい方向に進みやすくして)少しずつ動きを小さくしていくと 最も安定したところに収束する 分子の動き=温度で、温度を十分にゆっくり下げると最適解に到達することが証明されてる だからDLでも学習率(温度と等価)の下げ方が重要なんだが最近は自動になって便利だね http://mevius.5ch.net/test/read.cgi/tech/1632587566/550
663: デフォルトの名無しさん (ワッチョイ cf02-643o [118.154.96.7]) [sage] 2022/06/19(日) 09:35:16.08 ID:G2ekVkpa0 何が問題なのかわからんが、完全に0になると勾配も消失するので学習が進まなくなるのでは http://mevius.5ch.net/test/read.cgi/tech/1632587566/663
719: デフォルトの名無しさん (ワッチョイ 5502-XsAS [118.154.96.7]) [sage] 2022/06/30(木) 18:05:14.87 ID:zfATy2ZV0 アルファ碁みたいなのをやろうとしてるんだよな? モデルの方を調整するのは難易度高そう 探索のときにプレイアウトしてるんだよね? そんなら決着までの手数の見積もりはできることになるから、最終的に手を選ぶときに 勝率だけじゃなくて手数も加味するようにすればいいのでは http://mevius.5ch.net/test/read.cgi/tech/1632587566/719
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.057s