[過去ログ] 【統計分析】機械学習・データマイニング20 (1002レス)
上下前次1-新
抽出解除 必死チェッカー(本家) (べ) 自ID レス栞 あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
718(1): (ワッチョイ d980-A6IM) 2018/10/07(日)21:24 ID:mIq+f5AO0(1) AAS
外部リンク[pdf]:arxiv.org
> 3.2 Global Average Pooling
> ・・・
> However, the fully connected layers are prone to overfitting, thus hampering the generalization ability
> of the overall network. Dropout is proposed by Hinton et al. [5] as a regularizer which randomly
> sets half of the activations to the fully connected layers to zero during training. It has improved the
> generalization ability and largely prevents overfitting [4].
> In this paper, we propose another strategy called global average pooling to replace the traditional
> fully connected layers in CNN.
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.037s