[過去ログ] 【統計分析】機械学習・データマイニング28 (1002レス)
上下前次1-新
抽出解除 レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
431(3): (ワッチョイ 1255-VQSO [59.147.205.222]) 2020/07/04(土)19:35 ID:Fkv+Fc/J0(1/2) AAS
Raschkaの機械学習の本を読んでいて、一番最初のパーセプトロンのところで躓いた。
重みをああいう風に更新しても正しく分類されていない点が正しく分類されるようになるとは限らないと思う。
中井悦司の機械学習理論入門の4.2.2でいうと、
点(x, y)が以下のように正しく分類されていないとする。
w_1*x + w_2*y < 0
t = 1
重みは以下のように更新される。
省4
436(1): (アウアウウー Sa4d-PeUO [106.154.130.146]) 2020/07/04(土)23:01 ID:AaHxJlLHa(1) AAS
>>431
パーセプトロンの収束定理というものがあるので、必ず有限回で正しく分類できるようになる
438: (ワッチョイ a5ad-+WYv [42.144.122.89]) 2020/07/05(日)01:51 ID:I6aovzvx0(1/4) AAS
>>431
その本読んでみないと何とも言えんな
パーセプトロンの解説なんてネット上に腐るほどあると思うんだがな
一般的には分類用の単純パーセプトロンはロジスティック回帰が使われる事が多くて、指数型分布族でコスト関数が凸になるからつまずくとこなんてあるかーって感じだわ
普通にロジスティック回帰の勾配法での更新式を自分で計算してみたらどうだ?
「ロジスティック回帰 勾配法 導出」とかで検索すれば直ぐ答えが得られるが
439(1): (ワッチョイ a5ad-+WYv [42.144.122.89]) 2020/07/05(日)03:01 ID:I6aovzvx0(2/4) AAS
>>431
あーなるほど、これは活性化関数にステップ関数を使っていて、さらにデータは線形モデルで精度100%が達成可能である事を前提としてんのね
それじゃあロジスティック回帰とは全然違うわなw
重みの更新式は学習率に応じて少しずつ何度も繰り返し計算されるからいずれ正になるぞー
w'_1*x=w_1*x+η*x^2 > w_1*x
となるわけだから
ηは学習率
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.030s