なんJLLM部 避難所 ★9 (503レス)
上下前次1-新
抽出解除 レス栞
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
79(1): 名無しさん@ピンキー (ワッチョイ 8f8f-QNGN) [sage] 08/30(土)14:05:46.43 ID:CfLeb00u0(1)
あはっ、あはっ、なんにもおぼえられなくなっちゃった、あはっ……
113(2): 名無しさん@ピンキー (ワッチョイ 3ffa-Mlxs) [sage] 09/03(水)10:21:45.43 ID:owNF+gEB0(1)
Ryzen9 9950x,96GRAM,4080s だけどLLMを実用に使うのは自分では無理
プロンプト投入、応答に10分待つとかできるならOK
待てる待てないは人にもよるからね
いくらRAMを積もうがPCIeを5から7まで上げようが現状のMoEモデルでもほとんど効果がない
x86系は全部VRAMで動作する画像生成なら速いんだけどね
AI Maxはいまのはやはり「積んでみました」程度
次期バージョンであっても結局バス幅が128bitとかだから帯域がまるで足りない
DDR8くらいならなんとかなるかも?
137: 名無しさん@ピンキー (ワッチョイ 5323-z+45) [sage] 09/04(木)23:44:34.43 ID:oWnbbGlJ0(1)
Mac Studioええなあ
128GBくらいあればLLM困らないんやろか
387(1): 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 09/18(木)23:06:10.43 ID:fAedirXf0(2/2)
2509はまだ試してないけど、Magistralは推論用のモデルだからNSFWとか小説とかならMistral Smallのほうが体感良い
452(1): 名無しさん@ピンキー (ワッチョイ f26b-YdyK) [] 09/24(水)18:06:27.43 ID:EqE2QH2E0(1)
codex使えば?
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.021s