[過去ログ] 【統計分析】機械学習・データマイニング30 (1002レス)
上下前次1-新
抽出解除 レス栞 あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
67: (ワッチョイ c563-77aj [118.6.123.234]) 2021/01/22(金)05:55 ID:D9exwsp90(1/2) AAS
Kerasが一番簡単だと思う。AutoMLでいいなら、PyCaretかAutoGluon使っとけ。
69: (ワッチョイ c563-nsAP [118.6.123.234]) 2021/01/22(金)08:06 ID:D9exwsp90(2/2) AAS
>>68
以下が公式のFAQ。syってどう発音させたいのかわからないけど、みんなサイキット言う。実際に使っている人には、エスケーラーンでも通じる
外部リンク[html]:scikit-learn.org
75: (ワッチョイ c563-FIml [118.6.123.234]) 2021/01/23(土)00:31 ID:mlukDicm0(1/2) AAS
テーブルデータはCatBoost
画像認識はCNNからTransformer(Attention)に移りつつある
テキストはTransformer(Attention)
生成系はGANだけど、GANは考え方だからやっぱりTransfomerっていう
時系列予測は(Auto)ARIMAとかProphet?
異常検知はk近傍とかIsolation Forestなのかな?
次元削減はt-SNEかUMAP
クラスタ分析はとりあえずk-meansでいいのかなぁ
最適化アルゴリズムはなんだろね、ディープラーニングとしてはAdamだけど、汎用的には最近の流行りはやっぱり量子アニーリング?
76: (ワッチョイ c563-FIml [118.6.123.234]) 2021/01/23(土)00:55 ID:mlukDicm0(2/2) AAS
>>71
元の資料は知らんが、単純にDropoutのことじゃないの?
78: (ワッチョイ c563-nsAP [118.6.123.234]) 2021/01/24(日)12:38 ID:sRKxGCiM0(1) AAS
>>77
GPU/CPUなりが100%で張り付いているなら変わらん。そうでなくても、その画像サイズなら、徐々にメモリに読み込んでキャッシュするようにしておけば、ほとんど影響ない
分散トレーニング(複数GPU利用)しているなら、高速ストレージを使うのがマスト
85: (ワッチョイ c563-nsAP [118.6.123.234]) 2021/01/27(水)13:36 ID:51OhT1PD0(1) AAS
俺も判らん
157: (ワッチョイ a563-1DaL [118.6.123.234]) 2021/02/08(月)23:53 ID:Oxxj5c3u0(1) AAS
ディープラーニングでも普通に最適化使っとるがな。他にもハイパーパラメータのチューニングで必要だわな
158: (ワッチョイ a563-1DaL [118.6.123.234]) 2021/02/09(火)00:00 ID:j0dfL+oY0(1/7) AAS
あと、機械学習を仕事で使うなら、ディープラーニングだけで済むことはほぼ無いわな。データによっては精度悪くなるしな
160: (ワッチョイ a563-1DaL [118.6.123.234]) 2021/02/09(火)00:14 ID:j0dfL+oY0(2/7) AAS
AutoMLでできるタスクならAutoMLまじ優秀。特にテーブルデータなら自分でモデル作る意味ほぼ無いと思うが、実際にはデータの種類の推測間違えたりするので、アルゴリズムの意味と必要な前処理はある程度知っておかないと、残念なことになる
162: (ワッチョイ a563-1DaL [118.6.123.234]) 2021/02/09(火)00:37 ID:j0dfL+oY0(3/7) AAS
SGDは損失関数と重みに対する最適化そのものだと思うのだが。フレームワークで指定する際の名前もそのままoptimizerだしな。そこだけソルバー使ってもできるしな
165: (ワッチョイ a563-H0CZ [118.6.123.234]) 2021/02/09(火)09:19 ID:j0dfL+oY0(4/7) AAS
>>164
量子アニーリングは応用が研究されてるけど、確かに最適化理論の分野で使われるアルゴリズム(単純なシンプレックス法や遺伝的アルゴリズムとか)が機械学習で使われてるって聞かないな。何でだろ、速度的な問題か?
168: (ワッチョイ a563-1DaL [118.6.123.234]) 2021/02/09(火)13:09 ID:j0dfL+oY0(5/7) AAS
最適化アルゴリズムの実利用は昔からされてるけど、機械学習(ディープラーニング)の中で使われている最適化アルゴリズム(Adamとか)とは分断されてるという話かなと
173: (ワッチョイ a563-H0CZ [118.6.123.234]) 2021/02/09(火)15:01 ID:j0dfL+oY0(6/7) AAS
>>172
めっちゃニューロン
179: (ワッチョイ a563-H0CZ [118.6.123.234]) 2021/02/09(火)15:35 ID:j0dfL+oY0(7/7) AAS
>>178
2chで理研AIPの資料を見るとは。参考になります
208: (ワッチョイ c763-oBDG [118.6.123.234]) 2021/02/12(金)18:47 ID:qQtTF60B0(1) AAS
>>207
そもそもモデル間違ってるとかタスク設定がおかしいとか無視するなら、パラメータ数を増やす
220: (ワッチョイ c763-wOa+ [118.6.123.234]) 2021/02/15(月)10:13 ID:nTx5v/JZ0(1/3) AAS
理論ばっかり学んで実践しない人が周りに多いので、両面のアプローチが必要だわな。とはいえ理論が少し先行していないと意味不明になると思うけど
224: (ワッチョイ c763-wOa+ [118.6.123.234]) 2021/02/15(月)10:36 ID:nTx5v/JZ0(2/3) AAS
実践しないのなら何のタメにやっているのか・・・
226: (ワッチョイ c763-wOa+ [118.6.123.234]) 2021/02/15(月)13:57 ID:nTx5v/JZ0(3/3) AAS
実践できないけど理論がわかる? 哲学かな・・・
271: (ワッチョイ 5363-8wBp [118.6.123.234]) 2021/02/23(火)10:01 ID:WBK5Nsiy0(1) AAS
>>267
回帰か分類かわからんけど、不均衡データとかそういう話であるならweight付けてみたら? 基本的にはダウンサンプリングの方が効果あると思うけど、何事もやってみないとわからん
276: (ワッチョイ 5363-8wBp [118.6.123.234]) 2021/02/24(水)14:47 ID:rDb27bYS0(1/3) AAS
>>275
Batch Normalizationのことだと思うので、訳し方が違うだけじゃないかなぁ
278(1): (ワッチョイ 5363-8wBp [118.6.123.234]) 2021/02/24(水)15:29 ID:rDb27bYS0(2/3) AAS
>>277
それだと標準化と正則化と訳すのが多いかなと思う。あとBatch Regularizationってのは聞いたことがないような
280: (ワッチョイ 5363-Cp5d [118.6.123.234]) 2021/02/24(水)17:26 ID:rDb27bYS0(3/3) AAS
>>279
あー、たしかに
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ
ぬこの手 ぬこTOP 0.044s