[過去ログ]
【統計分析】機械学習・データマイニング31 (1002レス)
【統計分析】機械学習・データマイニング31 http://mevius.5ch.net/test/read.cgi/tech/1632587566/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
566: デフォルトの名無しさん (アークセー Sx91-PvPk [126.196.37.22]) [sage] 2022/05/12(木) 19:13:03.75 ID:SeeVGpfXx >>565 過学習って学習しているわけじゃなく、学習データを丸暗記してるのと同じだよね それを学習といいたくないんじゃないかな http://mevius.5ch.net/test/read.cgi/tech/1632587566/566
567: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:17:06.59 ID:QHBqVOhI0 過学習と学習不足(未学習)は機械学習の基本的な考え方だねー。varianceとbiasと考えてもいいよー ところがディープラーニングの世界では、過学習の先に突然精度が上がる現象が確認されてるよー 不思議だねー http://mevius.5ch.net/test/read.cgi/tech/1632587566/567
568: デフォルトの名無しさん (テテンテンテン MM82-xesJ [193.119.159.12]) [sage] 2022/05/12(木) 19:26:27.74 ID:awPT4EK2M >>567 この現象、体験したことないんだけどMNISTあたりでも観測できるの? http://mevius.5ch.net/test/read.cgi/tech/1632587566/568
569: デフォルトの名無しさん (アークセー Sx91-PvPk [126.196.37.22]) [sage] 2022/05/12(木) 19:30:00.86 ID:SeeVGpfXx >>567 適当にぐぐったけどこれのこと? 過学習後も精度向上!?【論文】Deep Double Descent: Where Bigger Models and More Data Hurt の解説 https://www.acceluniverse.com/blog/developers/2020/01/deep-double-descent-where-bigger-models-and-more-data-hurt.html ニワカに信じがたいので、ちょっと読んでみる http://mevius.5ch.net/test/read.cgi/tech/1632587566/569
570: デフォルトの名無しさん (アウアウウー Sac5-ZVzp [106.146.112.241]) [sage] 2022/05/12(木) 19:34:46.68 ID:V9a83oNra 丸暗記だって学習は学習 人間でも暗記は必要最低限だけにして知識を効率活用できる人もいれば丸暗記したことしか理解できずちょっと応用問題出されただけで理解不能に陥る人もいる http://mevius.5ch.net/test/read.cgi/tech/1632587566/570
571: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:35:33.93 ID:QHBqVOhI0 Double Descentだねー 大規模言語モデルだと前提になってるよー http://mevius.5ch.net/test/read.cgi/tech/1632587566/571
572: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:38:29.11 ID:QHBqVOhI0 とはいえ過学習を是とすると、それはただの全文検索なので Double Descent, Overparameterizationは既知の概念ではない何かなんだろうねー http://mevius.5ch.net/test/read.cgi/tech/1632587566/572
573: デフォルトの名無しさん (ワッチョイ ee10-cfd4 [153.243.43.6]) [] 2022/05/12(木) 19:41:34.38 ID:QHBqVOhI0 >>568 トイプロブレムで実証したことはないけど、実務で大きめのモデルを扱っている人は、みんなそれっぽい現象を観測した経験があると思うよー とはいえ、概念を先に知らないと偶然としか思わないんだけどねー http://mevius.5ch.net/test/read.cgi/tech/1632587566/573
574: デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32]) [sage] 2022/05/12(木) 20:23:08.75 ID:gGBQiRDa0 >>573 ふうん http://mevius.5ch.net/test/read.cgi/tech/1632587566/574
575: デフォルトの名無しさん (テテンテンテン MM82-qw0W [193.119.164.69]) [sage] 2022/05/12(木) 22:36:43.51 ID:m2THFYn4M >>567 局所解って話ではないの? http://mevius.5ch.net/test/read.cgi/tech/1632587566/575
576: デフォルトの名無しさん (ワッチョイ 0202-zDU0 [59.138.123.33]) [sage] 2022/05/12(木) 23:38:12.85 ID:XThBUtns0 事例が多くなると 結局あらゆる事例が網羅されるという意味じゃね? http://mevius.5ch.net/test/read.cgi/tech/1632587566/576
577: デフォルトの名無しさん (ワッチョイ 09e6-/zFp [14.3.19.207]) [sage] 2022/05/12(木) 23:53:34.27 ID:CoPLz2Vj0 この分野まともな理屈なんて何一つねーんだし 深く考えても無駄よ 他の工学分野とかもっと理論でガチガチに固めてるしな http://mevius.5ch.net/test/read.cgi/tech/1632587566/577
578: デフォルトの名無しさん (ワッチョイ 9d6e-xesJ [138.64.67.32]) [sage] 2022/05/13(金) 12:37:27.02 ID:AsvYLwfP0 日本の研究者って理論も弱いよね http://mevius.5ch.net/test/read.cgi/tech/1632587566/578
579: デフォルトの名無しさん (ワッチョイ 7d5f-oYRD [106.73.226.99]) [sage] 2022/05/13(金) 15:43:58.39 ID:nFnwnz+O0 弱いというか、現実のDNNの収束過程とは離れた、あまりに理論寄りすぎることばっかりやってる。 http://mevius.5ch.net/test/read.cgi/tech/1632587566/579
580: デフォルトの名無しさん (ワッチョイ 0202-zDU0 [59.138.123.33]) [sage] 2022/05/13(金) 16:49:05.19 ID:NE9V9IQG0 現実の結果の説明は多分この先もできないよね http://mevius.5ch.net/test/read.cgi/tech/1632587566/580
581: デフォルトの名無しさん (ワッチョイ 0255-/AKQ [59.147.205.222]) [] 2022/05/13(金) 16:53:12.85 ID:N8AZ2EKD0 岡谷さんってどうですか? http://mevius.5ch.net/test/read.cgi/tech/1632587566/581
582: デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129]) [sage] 2022/05/13(金) 20:05:28.18 ID:UTtAr0xn0 >>577 あなたが知らないだけなんじゃないの? http://mevius.5ch.net/test/read.cgi/tech/1632587566/582
583: デフォルトの名無しさん (ワッチョイ ee10-ojei [153.131.102.129]) [sage] 2022/05/13(金) 20:07:45.53 ID:UTtAr0xn0 学習は教師信号との誤差とかで決まる評価関数の値を小さくする結合とかのパラメータを見つける問題に帰着するんだろうな 大まかに言えば組合せ最適化問題 http://mevius.5ch.net/test/read.cgi/tech/1632587566/583
584: デフォルトの名無しさん (アウアウウー Sac5-e+q+ [106.154.69.3]) [sage] 2022/05/13(金) 21:14:31.29 ID:btyzcX5fa 問題にしてるレイヤーが違うんだろ パラメーターだなんだってのは理論だらけだけど そのデータからどうして予測できるんだ(どんな特徴が使われてるんだ)とか、このモデルよりもあっちのモデルのほうがうまくいく理由は?みたいなとこはこじつけだらけ http://mevius.5ch.net/test/read.cgi/tech/1632587566/584
585: デフォルトの名無しさん (ワッチョイ a45f-eDpJ [106.73.226.99]) [sage] 2022/05/14(土) 00:04:16.45 ID:0dDHcT1o0 理論がないってのは言い過ぎだけど、まあまだわからんことは多いのは事実。 ある程度わかってもパラメータチューニングについては機械的に探すって話はずっと続きそうではある。 http://mevius.5ch.net/test/read.cgi/tech/1632587566/585
586: デフォルトの名無しさん (アウアウウー Sa15-IsGS [106.154.4.241]) [sage] 2022/05/14(土) 06:50:37.09 ID:O8qOoha4a >>585 別に言い過ぎではないよ。 色々試行錯誤してデモ向けチャンピオンデータ探して 発表や論文書いてそこまで、やりっ放し。 再現性無しじゃ理論も減った暮れも http://mevius.5ch.net/test/read.cgi/tech/1632587566/586
587: デフォルトの名無しさん (スップ Sdde-qOGV [1.75.152.73]) [sage] 2022/05/14(土) 16:15:39.79 ID:tMZG04rkd ただのフィッティング技法と考えてよい 教師なし学習は逆フィッティングだが http://mevius.5ch.net/test/read.cgi/tech/1632587566/587
588: デフォルトの名無しさん (テテンテンテン MMb4-pOvi [133.106.57.5]) [sage] 2022/05/14(土) 17:29:08.39 ID:4saW8Bc8M 別の手法として発表されたものが 理論的には同じことをしてるという事もある http://mevius.5ch.net/test/read.cgi/tech/1632587566/588
589: デフォルトの名無しさん (スップ Sdde-qOGV [1.75.152.73]) [sage] 2022/05/14(土) 19:16:10.33 ID:tMZG04rkd ファッションでやってる輩が増えてて困る http://mevius.5ch.net/test/read.cgi/tech/1632587566/589
590: デフォルトの名無しさん (ワッチョイ ca10-Vod4 [153.243.53.4]) [] 2022/05/14(土) 19:28:08.46 ID:3asw//Zv0 逆フィッティングとは http://mevius.5ch.net/test/read.cgi/tech/1632587566/590
591: デフォルトの名無しさん (ワッチョイ 8efb-WgHi [92.203.11.83]) [sage] 2022/05/14(土) 23:22:49.99 ID:gU3pbgYf0 >>589 誰だって最初はにわかな存在ですし、分野としては新規参入者が多いことは喜ばしいことですよ。 http://mevius.5ch.net/test/read.cgi/tech/1632587566/591
592: デフォルトの名無しさん (ワッチョイ d610-qOGV [114.163.141.1]) [sage] 2022/05/15(日) 05:04:53.83 ID:RG3j7DCt0 >>590 集合と集合の分離する(最大限離す)境界を作成するという意味で用いた。多意はない >>591 ↓これ見たとき何か勘違いしてる輩のギャグかなと思った https://youtu.be/-MCO1FOeaOI http://mevius.5ch.net/test/read.cgi/tech/1632587566/592
593: デフォルトの名無しさん (テテンテンテン MM9a-94oM [193.119.158.78]) [sage] 2022/05/16(月) 11:59:51.09 ID:oRnyDlKgM cnnで特徴抽出するときの中間層てどこでもいいの? convの直後がいいの?それとも活性化通した後のがいいの? http://mevius.5ch.net/test/read.cgi/tech/1632587566/593
594: デフォルトの名無しさん (ワッチョイ ca10-biPL [153.243.43.6]) [] 2022/05/16(月) 12:08:39.95 ID:ucnn58bs0 >>593 転移学習の話なら出力層の直前までを再利用することが多いよー XAIの話ならなんとも言えないねー。ただ、あまり深い層だと(人が見て)解釈が難しいことが多いよー http://mevius.5ch.net/test/read.cgi/tech/1632587566/594
595: デフォルトの名無しさん (テテンテンテン MM9a-94oM [193.119.152.63]) [sage] 2022/05/16(月) 15:03:25.33 ID:04bK1tejM >>594 fc入る直前のを特徴として使ってた 他の層も特徴として一緒に使えば精度か上がるかなって思った http://mevius.5ch.net/test/read.cgi/tech/1632587566/595
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 407 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.009s