例えばどれ?103(1): デフォルトの名無しさん (ワッチョイ d554-Hpzl [180.235.6.52]) [sage] 2020/09/05(土) 12:12:25.16 ID:0NWRwchU0(2/3) AAS
>>102
出てるよ
fp16だと71tflopsだってさ
ありがとん109(1): デフォルトの名無しさん (ワッチョイ 0502-biH0 [118.154.96.7]) [sage] 2020/09/05(土) 15:57:37.62 ID:Az39CCC60(5/8) AAS
>>108
103じゃないが、↓によると238Tensor-TFLOPSとなってるな
外部リンク[html]:pc.watch.impress.co.jp
Tensor-TFLOPSってのがよくわからんがFP16の性能かな?
FP16までしか対応してないソースは↓
外部リンク:www.nvidia.com
「サポートされている Tensor コア精度」に書いてある
Turingまでしか記載がないが、AmpereもFP32に対応したなんて発表はないし、
推論専用という位置づけは変わらないので一緒だろう