[過去ログ] 【統計分析】機械学習・データマイニング28 (1002レス)
上下前次1-新
抽出解除 必死チェッカー(本家) (べ) 自ID レス栞 あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
809(1): デフォルトの名無しさん (JP 0Hff-AGJO [49.98.225.79]) [sage] 2020/08/04(火) 17:51:22.11 ID:CwJFfZdJH(1/2) AAS
>>792792(4): デフォルトの名無しさん (ワッチョイ 07ad-z+yJ [42.148.220.186]) [] 2020/08/04(火) 11:58:58.15 ID:lImhU2CT0(1/3) AAS
カルマンフィルタは最尤推定だよw
しかし確率モデルで正則化しようと思えばベイズを使うのが普通だから実質「ベイズ要らない」=「確率モデル要らない」になるんだか...
まず、ノンパラで因果推論はだめぽと思うからその分野で何のモデルが使えるか考える
条件付き混合モデルのような確率モデルで因果推論が出来るとしてそのモデルで正則化しようと思えばベイズ推定が必要になる
(セミパラで因果推論が正しく出来るか証明してないから検証は必要だが)
あと、「ベイズいらね」って言ってる香具師はDL含めて普通の回帰分析はめちゃくちゃ強い仮定に基づいて計算してるの知ってるのかな?
一つ例を挙げると
説明変数に誤差がある→それ用の確率モデルで尤度方程式を導出→いやいや、この場合最尤推定はあまり良くない→確率分布のリーマン空間を考えてベストな推定を獲得する
ベイズを否定する=確率モデルを否定する=この流れを否定する
ということになるが
確率微分方程式からの視点を知らないね。
810(1): デフォルトの名無しさん (JP 0Hff-AGJO [49.98.225.79]) [sage] 2020/08/04(火) 17:52:57.00 ID:CwJFfZdJH(2/2) AAS
あとは射影によるリースの表現定理からの議論が全くない。
知ったかもいいとこ。
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.034s