[過去ログ] 【統計分析】機械学習・データマイニング33 (1002レス)
上下前次1-新
抽出解除 レス栞 あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
343(2): (ワッチョイ 999c-5C2y [250.93.230.9]) 2023/10/03(火)14:08 ID:W4dvSM610(1/2) AAS
今から、人工知能について勉強する場合、ディープラーニングのみを勉強すれば十分ですか?
他の機械学習の手法についても勉強したほうがいいですか?
347(1): (ワッチョイ 999c-5C2y [250.93.230.9]) 2023/10/03(火)16:53 ID:W4dvSM610(2/2) AAS
>>345-346
なんかサポートベクトルマシンとか、頑張ってちょっと賢い方法を考えだしたねっていう機械学習の手法があるじゃないですか。
あんな類の小物臭のする手法を、今でも、人工知能の初学者が勉強したほうがいいかという質問です。
ユニバーサルなディープラーニングだけでいいんじゃないかって思っちゃいます。
万能なディープラーニングだけでいいのではないかと思えるんですが。
386: (ワッチョイ 1b13-dQtH [250.93.230.9]) 2023/11/03(金)18:52 ID:cbgvGuNU0(1) AAS
岡谷貴之著『深層学習第1版』
ソフトマックス関数は冗長だが、ユニットの一つを選びその入力を0にしてしまえば冗長性を回避できる。
選んだユニットに入る結合重みもきちんと出力に反映される。
というようなことが書かれているのですが、本当に、選んだユニットに入る結合重みもきちんと出力に反映されますか?
389(1): (ワッチョイ 3b56-/9BA [250.93.230.9]) 2023/11/05(日)10:24 ID:iAGuwN4n0(1/3) AAS
確率的勾配降下法について質問です。
E(W) = E_1(W) + … + E_N(W)
の値をできるだけ小さくするような W を求めたい。
E_i(W) は i 番目のデータに対するニューラルネットワークの出力と i 番目の正解データとの誤差です。
確率的勾配降下法では、 (grad D)(W) を計算するのではなく、ランダムに i ∈ {1, …, N} を選んで、 (grad D_i)(W) を計算して
重み W を更新します。
省5
390: (ワッチョイ 3bb9-/9BA [250.93.230.9]) 2023/11/05(日)13:39 ID:iAGuwN4n0(2/3) AAS
結局、もぐらたたきのように、いくら局所的な改善をしても全体としては一向に改善されないというような事態にはならないのでしょうか?
394(1): (ワッチョイ 3bb9-/9BA [250.93.230.9]) 2023/11/05(日)17:18 ID:iAGuwN4n0(3/3) AAS
>>391
>>392-393
ありがとうございました。
岡谷さんの本には、確率的勾配降下法により E(W) がどんどん小さくなっていくのは当たり前のことであるかのように何の説明もありませんでした。
423(2): (ワッチョイ 3be6-/9BA [250.93.230.9]) 2023/11/10(金)17:43 ID:WbKAk9iL0(1/2) AAS
YouTubeの3Blue1BrownJapanのニューラルネットワークの動画を見ました。
「第2層が短い線を検出し、第3層がパターンを検出し、」という説明がありました。
ニューラルネットワークの重みやバイアスが何なのかはブラックボックスとして考えないのかと思っていましたがそうではないんですね。
ニューラルネットワークを学習させ、満足のいくものを完成させたとします。
このとき、例えば、第1層がどんな処理をしているのか人間が分かるような説明はどうやって見出すのでしょうか?
425: (ワッチョイ 3be6-/9BA [250.93.230.9]) 2023/11/10(金)18:31 ID:WbKAk9iL0(2/2) AAS
>>424
ありがとうございました。
そういうことが分かると非常に満足度は高いと思いますが、よりよいニューラルネットワークを作るのに役立ちますか?
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 1.358s*