[過去ログ]
【統計分析】機械学習・データマイニング33 (1002レス)
【統計分析】機械学習・データマイニング33 http://mevius.5ch.net/test/read.cgi/tech/1678984249/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
471: デフォルトの名無しさん (アウアウウー Sa9d-qUbB [106.146.28.70]) [sage] 2023/12/03(日) 16:40:58.19 ID:yd0YzEc7a GPT-nとBERTの違いがイマイチあやふやなんだけど TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな? GPT-4も学習時はBERT使って学習してるのよね? http://mevius.5ch.net/test/read.cgi/tech/1678984249/471
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.052s