[過去ログ]
【統計分析】機械学習・データマイニング20 (1002レス)
【統計分析】機械学習・データマイニング20 http://mevius.5ch.net/test/read.cgi/tech/1533635797/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
650: デフォルトの名無しさん (ワッチョイ 9fda-aQox) [] 2018/10/03(水) 13:20:41.80 ID:+7Euz2g60 CSなんて結局は計算能力との兼ね合いだからな 仮に完全に脳構造を模倣したモデルを組み上げたとしても それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん かといって脳構造の模倣や考察を放棄するのは適切じゃない 世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう 問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で マルチヘッドセルフattentionにそれらを処理させているが おそらくは完璧を求めると 階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう 計算力はどうせなんとかなるだろうし 誰かが気づけば、あと10数年で汎用AI完成するんじゃね http://mevius.5ch.net/test/read.cgi/tech/1533635797/650
766: デフォルトの名無しさん (ワッチョイ df09-a1T9) [] 2018/10/15(月) 20:07:31.69 ID:E7SbL8Og0 BERTの成功とその方向性から垣間見える 脳構造の模倣における連続的時間情報の把握の重要性 俺が>>650で指摘している状態 >おそらくは完璧を求めると >階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み >なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある >これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう これとBERTで使われている、transformerよりも更に多層化して各層の参照密度を増したAttentionとの間に 共通性を認識できる人がいれば、俺の言い分を理解してもらえるだろう http://mevius.5ch.net/test/read.cgi/tech/1533635797/766
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.040s