なんJLLM部 避難所 ★9 (504レス)
なんJLLM部 避難所 ★9 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
79: 名無しさん@ピンキー (ワッチョイ 8f8f-QNGN) [sage] 2025/08/30(土) 14:05:46.43 ID:CfLeb00u0 あはっ、あはっ、なんにもおぼえられなくなっちゃった、あはっ…… http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/79
113: 名無しさん@ピンキー (ワッチョイ 3ffa-Mlxs) [sage] 2025/09/03(水) 10:21:45.43 ID:owNF+gEB0 Ryzen9 9950x,96GRAM,4080s だけどLLMを実用に使うのは自分では無理 プロンプト投入、応答に10分待つとかできるならOK 待てる待てないは人にもよるからね いくらRAMを積もうがPCIeを5から7まで上げようが現状のMoEモデルでもほとんど効果がない x86系は全部VRAMで動作する画像生成なら速いんだけどね AI Maxはいまのはやはり「積んでみました」程度 次期バージョンであっても結局バス幅が128bitとかだから帯域がまるで足りない DDR8くらいならなんとかなるかも? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/113
137: 名無しさん@ピンキー (ワッチョイ 5323-z+45) [sage] 2025/09/04(木) 23:44:34.43 ID:oWnbbGlJ0 Mac Studioええなあ 128GBくらいあればLLM困らないんやろか http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/137
387: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/18(木) 23:06:10.43 ID:fAedirXf0 2509はまだ試してないけど、Magistralは推論用のモデルだからNSFWとか小説とかならMistral Smallのほうが体感良い http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/387
452: 名無しさん@ピンキー (ワッチョイ f26b-YdyK) [] 2025/09/24(水) 18:06:27.43 ID:EqE2QH2E0 codex使えば? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/452
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.018s