[過去ログ]
【統計分析】機械学習・データマイニング29 (1002レス)
【統計分析】機械学習・データマイニング29 http://mevius.5ch.net/test/read.cgi/tech/1597882603/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
81: デフォルトの名無しさん (ワッチョイ 6501-JFwp [60.86.178.93]) [] 2020/09/04(金) 07:19:00.27 ID:jvrr6lZ70 >>79-80の流れに朝からワロラサレターヨ(・∀・) http://mevius.5ch.net/test/read.cgi/tech/1597882603/81
82: デフォルトの名無しさん (ワッチョイ d554-Hpzl [180.235.6.52]) [sage] 2020/09/04(金) 07:50:08.83 ID:4FjIUW730 発想が童貞みたい http://mevius.5ch.net/test/read.cgi/tech/1597882603/82
83: デフォルトの名無しさん (ブーイモ MM6b-4qls [163.49.209.127]) [sage] 2020/09/04(金) 08:02:56.49 ID:WvWinIJxM >>79 つ https://i.imgur.com/Lysnw37.jpg http://mevius.5ch.net/test/read.cgi/tech/1597882603/83
84: デフォルトの名無しさん (ワッチョイ 05da-n8ne [118.16.69.226]) [sage] 2020/09/04(金) 09:56:18.30 ID:VQ6sIcSE0 >>79 あるよ http://mevius.5ch.net/test/read.cgi/tech/1597882603/84
85: デフォルトの名無しさん (JP 0H29-yOpk [202.216.106.142]) [] 2020/09/04(金) 10:27:07.17 ID:3vk4X+ZOH あるにはあるけど、エロ画像だけ学習させて商品として提供してる会社がなくないか 昔の全然とれないモザイクリムーバーみたいに売れば大ヒットだとおもうんだけどなあ http://mevius.5ch.net/test/read.cgi/tech/1597882603/85
86: デフォルトの名無しさん (ワントンキン MMa3-Hpzl [153.250.91.255]) [sage] 2020/09/04(金) 11:29:39.09 ID:lHqiid/jM 活性化関数は出力を得るためにかけるんだよね? dropoutはどの層で有効にすればいいの? 中間層すべて? http://mevius.5ch.net/test/read.cgi/tech/1597882603/86
87: デフォルトの名無しさん (ブーイモ MM6b-a2Nv [163.49.207.212]) [sage] 2020/09/04(金) 12:30:33.71 ID:zd548qQ8M 顔消しモザ消そうとしてちんこが生えたらどうするんだ http://mevius.5ch.net/test/read.cgi/tech/1597882603/87
88: デフォルトの名無しさん (ワッチョイ 6501-JFwp [60.86.178.93]) [sage] 2020/09/04(金) 14:01:51.90 ID:jvrr6lZ70 >>86 上:せやな 下:やりすぎても、やらなさすぎてもうまくいかず、さじ加減が職人芸だときいている http://mevius.5ch.net/test/read.cgi/tech/1597882603/88
89: デフォルトの名無しさん (ワッチョイ 8302-biH0 [101.141.5.169]) [sage] 2020/09/04(金) 14:47:29.83 ID:GIOuj/3d0 >>68 数学や統計を極めても、上2つは難しくね? http://mevius.5ch.net/test/read.cgi/tech/1597882603/89
90: デフォルトの名無しさん (ワントンキン MMa3-Hpzl [153.250.91.255]) [sage] 2020/09/04(金) 14:59:55.37 ID:lHqiid/jM >>88 ありがと そっかー、うーむ🤔 http://mevius.5ch.net/test/read.cgi/tech/1597882603/90
91: デフォルトの名無しさん (アウウィフ FF69-th+2 [106.171.75.10]) [] 2020/09/04(金) 15:03:17.37 ID:l2EHvy2iF りんごちゃんとはるな愛の区別が出来ないんだけど過学習かな http://mevius.5ch.net/test/read.cgi/tech/1597882603/91
92: デフォルトの名無しさん (ワッチョイ 6501-ntEb [60.69.230.42]) [sage] 2020/09/04(金) 16:54:52.03 ID:QJTIc14X0 >>89 上2つが適切に設定されていないと、結論の妥当性が示せない。 http://mevius.5ch.net/test/read.cgi/tech/1597882603/92
93: デフォルトの名無しさん (JP 0H61-KuLZ [180.0.253.62]) [sage] 2020/09/04(金) 17:16:08.49 ID:Nh0NQvHOH >>68 モデルゴリゴリ以前の問題なのでは http://mevius.5ch.net/test/read.cgi/tech/1597882603/93
94: デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [sage] 2020/09/04(金) 18:22:35.09 ID:5pEEdWxD0 >>86 中間層すべてにかけるのが普通かな 出力層にもかける流派もあるらしいが ドロップアウト率は入力層に近い方を高く、遠い方を低くするもんらしい http://mevius.5ch.net/test/read.cgi/tech/1597882603/94
95: デフォルトの名無しさん (ワッチョイ 4b10-Wndw [153.131.102.129]) [sage] 2020/09/04(金) 19:15:53.20 ID:HIGqzVjC0 非線形関数を通さないと線型結合を繰り返すだけになるんじゃないか? あと微分しても一定の値だからバックプロパゲーションも出来ないのでは? http://mevius.5ch.net/test/read.cgi/tech/1597882603/95
96: デフォルトの名無しさん (ワントンキン MMa3-Hpzl [153.250.91.255]) [sage] 2020/09/04(金) 19:35:31.74 ID:lHqiid/jM >>94 ヒントンの論文だと 全中間層でdropoutかけてる図がでてたんだよね 悩む🤔 http://mevius.5ch.net/test/read.cgi/tech/1597882603/96
97: デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [sage] 2020/09/05(土) 10:16:29.80 ID:Az39CCC60 GeForce RTX 3090はFP32性能が36TFLOPSか、すげーな しかしせっかくTensorCoreが載ってるのに、これって学習には使えないのね FP16しか対応してないからかな? 確かにFP16じゃBPがうまく進まなそうだが 性能半分でいいから、FP32対応してくれればいいのに せっかくの汎用マトリクス演算ユニットなのにもったいない http://mevius.5ch.net/test/read.cgi/tech/1597882603/97
98: デフォルトの名無しさん (ワッチョイ 4b10-Wndw [153.131.102.129]) [sage] 2020/09/05(土) 11:20:16.92 ID:DwFJQw5i0 個人で買えるかわからないけどこんなのもあるな https://jpn.nec.com/hpc/sxauroratsubasa/features/index.html http://mevius.5ch.net/test/read.cgi/tech/1597882603/98
99: デフォルトの名無しさん (ブーイモ MM6b-a2Nv [163.49.202.177]) [sage] 2020/09/05(土) 11:36:28.67 ID:ebgs5EyIM >>97 どこでそんなマヌケな情報を手に入れたんだよ http://mevius.5ch.net/test/read.cgi/tech/1597882603/99
100: デフォルトの名無しさん (ワッチョイ 9dda-4qls [114.183.190.118]) [sage] 2020/09/05(土) 11:41:53.99 ID:lXaWPRh70 >>98 XEON PHIより難易度高そうだけど THX http://mevius.5ch.net/test/read.cgi/tech/1597882603/100
101: デフォルトの名無しさん (ワッチョイ d554-Hpzl [180.235.6.52]) [sage] 2020/09/05(土) 11:42:29.92 ID:0NWRwchU0 それはスパコンでは? http://mevius.5ch.net/test/read.cgi/tech/1597882603/101
102: デフォルトの名無しさん (ワッチョイ 05da-n8ne [118.16.69.226]) [sage] 2020/09/05(土) 12:01:56.16 ID:CjkYIT6R0 >>97 ggたけどそれらしい情報がないが http://mevius.5ch.net/test/read.cgi/tech/1597882603/102
103: デフォルトの名無しさん (ワッチョイ d554-Hpzl [180.235.6.52]) [sage] 2020/09/05(土) 12:12:25.16 ID:0NWRwchU0 >>102 出てるよ fp16だと71tflopsだってさ http://mevius.5ch.net/test/read.cgi/tech/1597882603/103
104: デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [sage] 2020/09/05(土) 12:26:15.00 ID:Az39CCC60 nVidiaのTensorCoreはFP32には対応していない いちおう、TensorflowなんかでもFP16設定にすればTensorCoreも学習に使ってくれるみたいね もっとも試してみた人のブログとか見てるとやっぱFP16じゃ精度が悲惨なことになるらしい ttps://qiita.com/kuroyagi/items/e70c55cbc88fc0ed0220 そういう意味じゃやっぱ推論専用という捉え方でいいんじゃないかな 71Tflopsとか夢があるけどなあ http://mevius.5ch.net/test/read.cgi/tech/15978
82603/104
105: デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [sage] 2020/09/05(土) 12:45:27.03 ID:Az39CCC60 × nVidiaのTensorCoreはFP32には対応していない 〇 GTX/RTXのTensorCoreはFP32には対応していない A100とかだとFP32/64も対応してる。学習アクセラレータなんだからそりゃそうだ グラボに載ってるTensorCoreは対応してなくて推論専用って話ね http://mevius.5ch.net/test/read.cgi/tech/1597882603/105
106: デフォルトの名無しさん (ワッチョイ d554-Hpzl [180.235.6.52]) [sage] 2020/09/05(土) 12:47:02.54 ID:0NWRwchU0 そうそう http://mevius.5ch.net/test/read.cgi/tech/1597882603/106
107: デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [] 2020/09/05(土) 13:09:00.94 ID:Az39CCC60 RTX 30シリーズはSSDから直接グラフィックデータを読み込めるらしいが たぶんDLの学習データ転送にも使えるよね flopsもメモリ帯域も上がってるしDL用途にも別次元の速さが実感できそうだ http://mevius.5ch.net/test/read.cgi/tech/1597882603/107
108: デフォルトの名無しさん (ワッチョイ 05da-n8ne [118.19.223.94]) [sage] 2020/09/05(土) 15:27:22.54 ID:71ZWev/Z0 >>103 例えばどれ? http://mevius.5ch.net/test/read.cgi/tech/1597882603/108
109: デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [sage] 2020/09/05(土) 15:57:37.62 ID:Az39CCC60 >>108 103じゃないが、↓によると238Tensor-TFLOPSとなってるな https://pc.watch.impress.co.jp/docs/news/1274381.html Tensor-TFLOPSってのがよくわからんがFP16の性能かな? FP16までしか対応してないソースは↓ https://www.nvidia.com/ja-jp/data-center/tensor-cores/ 「サポートされている Tensor コア精度」に書いてある Turingまでしか記載がないが、AmpereもFP32に対応したなんて発表はないし、 推論専用という位置
づけは変わらないので一緒だろう http://mevius.5ch.net/test/read.cgi/tech/1597882603/109
110: デフォルトの名無しさん (ワッチョイ 05da-n8ne [118.19.223.94]) [sage] 2020/09/05(土) 16:04:23.39 ID:71ZWev/Z0 >>109 ありがとん http://mevius.5ch.net/test/read.cgi/tech/1597882603/110
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 892 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.020s