[過去ログ] なんJLLM部 避難所 ★8 (1002レス)
上下前次1-新
抽出解除 レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
147: (ワッチョイ cd08-eKVg) 05/19(月)15:16:19.08 ID:J3NCIUm50(1) AAS
kobold AIってLoRA使える?
インストールして起動してみたものの使い方わかんねぇ
検索しても情報少ないのな
166: (ワッチョイ be28-ZafB) 05/20(火)11:27:49.08 ID:k30YKmpX0(1) AAS
Ryzen AI Max+ 395がmac studio並に800GB/s超の帯域幅あったら
最強だったのに
226: (ワッチョイ cfa0-St5P) 05/29(木)19:37:59.08 ID:n8QeM8Rt0(1) AAS
GGUF版も作ってるニキがいるな
がんばってくれ
640(1): (ワッチョイ 2ac7-y9b4) 07/16(水)12:06:32.08 ID:BNwIGceC0(3/3) AAS
gpu完全オフだと約1token/s(500tokensまで)
tokensが増えるごとに遅くなるけど
816: (ワッチョイ dba0-vd57) 08/06(水)08:20:41.08 ID:dLHVB3li0(1) AAS
DeepSeekやQwenでいいかなこれは…
OpenAIもこんなもんか
851(1): (ワッチョイ 1fd9-e1Bx) 08/07(木)13:44:47.08 ID:gM86ePk40(1/2) AAS
gpt-ossマジでゴミだな
海外だとGLM4.5が評判良さそうだけど日本語はどうなんだろう
871: (ワッチョイ 1ed9-zlfW) 08/09(土)13:06:29.08 ID:gcZUwMrm0(1/2) AAS
Amaterasuは自分の使い方だとかなり良い感じなんだが流石にデカすぎて推論遅くて常用にはきつい
やっぱでかいモデルはMoEじゃないと一般人的にはきついわ
ただMoEは推論は軽いけど学習のコストはデカさ相応なんだよな、日本の個人勢がMoEの学習あんまりやってないのもコスト関係な気がする
998: (JP 0H0e-TcND) 08/23(土)04:46:12.08 ID:hvD7X/jjH(1) AAS
Mac Stuidoの場合基板にメモリ直付けでオクタチャンネルだしな
NVIDIAにしてもサーバー向けのGrace HopperはArmCPUにGPUとHBMメモリの一体設計だし
ソケットやスロットで全部のパーツを交換可能なのが自作PCの強みだけど、AIでハイパフォーマンスを目指すとなると、ソケットやスロットで配線が厳しいのがボトルネックになってきてる
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.030s