[過去ログ] 【統計分析】機械学習・データマイニング30 (1002レス)
上下前次1-新
抽出解除 レス栞 あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
67: デフォルトの名無しさん (ワッチョイ c563-77aj [118.6.123.234]) [] 2021/01/22(金)05:55 ID:D9exwsp90(1/2)
Kerasが一番簡単だと思う。AutoMLでいいなら、PyCaretかAutoGluon使っとけ。
69: デフォルトの名無しさん (ワッチョイ c563-nsAP [118.6.123.234]) [] 2021/01/22(金)08:06 ID:D9exwsp90(2/2)
>>68
以下が公式のFAQ。syってどう発音させたいのかわからないけど、みんなサイキット言う。実際に使っている人には、エスケーラーンでも通じる
https://scikit-learn.org/stable/faq.html#how-do-you-pronounce-the-project-name
75: デフォルトの名無しさん (ワッチョイ c563-FIml [118.6.123.234]) [] 2021/01/23(土)00:31 ID:mlukDicm0(1/2)
テーブルデータはCatBoost
画像認識はCNNからTransformer(Attention)に移りつつある
テキストはTransformer(Attention)
生成系はGANだけど、GANは考え方だからやっぱりTransfomerっていう
時系列予測は(Auto)ARIMAとかProphet?
異常検知はk近傍とかIsolation Forestなのかな?
次元削減はt-SNEかUMAP
クラスタ分析はとりあえずk-meansでいいのかなぁ
最適化アルゴリズムはなんだろね、ディープラーニングとしてはAdamだけど、汎用的には最近の流行りはやっぱり量子アニーリング?
76: デフォルトの名無しさん (ワッチョイ c563-FIml [118.6.123.234]) [] 2021/01/23(土)00:55 ID:mlukDicm0(2/2)
>>71
元の資料は知らんが、単純にDropoutのことじゃないの?
78: デフォルトの名無しさん (ワッチョイ c563-nsAP [118.6.123.234]) [] 2021/01/24(日)12:38 ID:sRKxGCiM0(1)
>>77
GPU/CPUなりが100%で張り付いているなら変わらん。そうでなくても、その画像サイズなら、徐々にメモリに読み込んでキャッシュするようにしておけば、ほとんど影響ない
分散トレーニング(複数GPU利用)しているなら、高速ストレージを使うのがマスト
85: デフォルトの名無しさん (ワッチョイ c563-nsAP [118.6.123.234]) [] 2021/01/27(水)13:36 ID:51OhT1PD0(1)
俺も判らん
157: デフォルトの名無しさん (ワッチョイ a563-1DaL [118.6.123.234]) [] 2021/02/08(月)23:53 ID:Oxxj5c3u0(1)
ディープラーニングでも普通に最適化使っとるがな。他にもハイパーパラメータのチューニングで必要だわな
158: デフォルトの名無しさん (ワッチョイ a563-1DaL [118.6.123.234]) [] 2021/02/09(火)00:00 ID:j0dfL+oY0(1/7)
あと、機械学習を仕事で使うなら、ディープラーニングだけで済むことはほぼ無いわな。データによっては精度悪くなるしな
160: デフォルトの名無しさん (ワッチョイ a563-1DaL [118.6.123.234]) [] 2021/02/09(火)00:14 ID:j0dfL+oY0(2/7)
AutoMLでできるタスクならAutoMLまじ優秀。特にテーブルデータなら自分でモデル作る意味ほぼ無いと思うが、実際にはデータの種類の推測間違えたりするので、アルゴリズムの意味と必要な前処理はある程度知っておかないと、残念なことになる
162: デフォルトの名無しさん (ワッチョイ a563-1DaL [118.6.123.234]) [] 2021/02/09(火)00:37 ID:j0dfL+oY0(3/7)
SGDは損失関数と重みに対する最適化そのものだと思うのだが。フレームワークで指定する際の名前もそのままoptimizerだしな。そこだけソルバー使ってもできるしな
165: デフォルトの名無しさん (ワッチョイ a563-H0CZ [118.6.123.234]) [] 2021/02/09(火)09:19 ID:j0dfL+oY0(4/7)
>>164
量子アニーリングは応用が研究されてるけど、確かに最適化理論の分野で使われるアルゴリズム(単純なシンプレックス法や遺伝的アルゴリズムとか)が機械学習で使われてるって聞かないな。何でだろ、速度的な問題か?
168: デフォルトの名無しさん (ワッチョイ a563-1DaL [118.6.123.234]) [] 2021/02/09(火)13:09 ID:j0dfL+oY0(5/7)
最適化アルゴリズムの実利用は昔からされてるけど、機械学習(ディープラーニング)の中で使われている最適化アルゴリズム(Adamとか)とは分断されてるという話かなと
173: デフォルトの名無しさん (ワッチョイ a563-H0CZ [118.6.123.234]) [] 2021/02/09(火)15:01 ID:j0dfL+oY0(6/7)
>>172
めっちゃニューロン
179: デフォルトの名無しさん (ワッチョイ a563-H0CZ [118.6.123.234]) [] 2021/02/09(火)15:35 ID:j0dfL+oY0(7/7)
>>178
2chで理研AIPの資料を見るとは。参考になります
208: デフォルトの名無しさん (ワッチョイ c763-oBDG [118.6.123.234]) [] 2021/02/12(金)18:47 ID:qQtTF60B0(1)
>>207
そもそもモデル間違ってるとかタスク設定がおかしいとか無視するなら、パラメータ数を増やす
220: デフォルトの名無しさん (ワッチョイ c763-wOa+ [118.6.123.234]) [] 2021/02/15(月)10:13 ID:nTx5v/JZ0(1/3)
理論ばっかり学んで実践しない人が周りに多いので、両面のアプローチが必要だわな。とはいえ理論が少し先行していないと意味不明になると思うけど
224: デフォルトの名無しさん (ワッチョイ c763-wOa+ [118.6.123.234]) [] 2021/02/15(月)10:36 ID:nTx5v/JZ0(2/3)
実践しないのなら何のタメにやっているのか・・・
226: デフォルトの名無しさん (ワッチョイ c763-wOa+ [118.6.123.234]) [] 2021/02/15(月)13:57 ID:nTx5v/JZ0(3/3)
実践できないけど理論がわかる? 哲学かな・・・
271: デフォルトの名無しさん (ワッチョイ 5363-8wBp [118.6.123.234]) [] 2021/02/23(火)10:01 ID:WBK5Nsiy0(1)
>>267
回帰か分類かわからんけど、不均衡データとかそういう話であるならweight付けてみたら? 基本的にはダウンサンプリングの方が効果あると思うけど、何事もやってみないとわからん
276: デフォルトの名無しさん (ワッチョイ 5363-8wBp [118.6.123.234]) [] 2021/02/24(水)14:47 ID:rDb27bYS0(1/3)
>>275
Batch Normalizationのことだと思うので、訳し方が違うだけじゃないかなぁ
278(1): デフォルトの名無しさん (ワッチョイ 5363-8wBp [118.6.123.234]) [] 2021/02/24(水)15:29 ID:rDb27bYS0(2/3)
>>277
それだと標準化と正則化と訳すのが多いかなと思う。あとBatch Regularizationってのは聞いたことがないような
280: デフォルトの名無しさん (ワッチョイ 5363-Cp5d [118.6.123.234]) [] 2021/02/24(水)17:26 ID:rDb27bYS0(3/3)
>>279
あー、たしかに
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.044s