なんJLLM部 避難所 ★9 (528レス)
なんJLLM部 避難所 ★9 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
1: 名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ) [] 2025/08/23(土) 13:52:18.71 ID:5lw7ZcNF0 !extend:checked:vvvvv:1000:512 !extend:checked:vvvvv:1000:512 AIに色々なことをしゃべってもらうんやで そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 自薦・他薦のモデルやツールは>>2以降 本スレ(避難中) なんJLLM部 ★7 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 前スレ(実質本スレ) なんJLLM部 避難所 ★8 https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/1
429: 名無しさん@ピンキー (ワッチョイ c720-GsOJ) [sage] 2025/09/20(土) 10:13:50.69 ID:ExnGmMsF0 視覚は莫大な情報の中から必要な物だけを抜き出す作業をしている 見たい部分が正しければ他は間違っていても気にならない 文章は伝えたい情報を全て文章化して相手に渡しており原則として相手は全てに目を通す 最初から最後まで確認するから間違いがあれば気づきやすい http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/429
430: 名無しさん@ピンキー (ワッチョイ 7732-kQ/7) [sage] 2025/09/20(土) 10:56:37.47 ID:xy79eLcb0 >>429 もちろんそういう問題もあるけど知識や技術の差も大きいで アホな小学生は文章の良し悪しや文法の間違いに気付くことが出来ない 絵も同じで画力が無い奴は絵のおかしな部分に気付くことが出来ないし、単に下手なのかわざと崩しているのかの区別もつかない 画力があると絵を見た瞬間に多くの情報を正しく拾っておかしな部分に気付いてしまう んで人類のほとんどはアホな小学生の文章力と同レベルの稚拙な画力しか持っていないから間違いが気になるはずもない 英語苦手な奴が英文読んだときにその良し悪しに気付かないのも同じことやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/430
431: 名無しさん@ピンキー (ワッチョイ be35-/zn3) [] 2025/09/20(土) 12:42:40.70 ID:JqUlC67e0 OpenRouterにGrok 4 Fastが来た。 しかもフリー。なんだこれ最高かよ。 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/431
432: 名無しさん@ピンキー (ワンミングク MMa2-tQaT) [] 2025/09/21(日) 10:00:43.82 ID:TZGwxDCYM CPU推論ってシングルスレッドが有効? スリッパだとシングルが弱い上にメモリアクセスにワンクッション挟むからRyzen 8000シリーズより遅くなる印象 ThreadripperならGPU複数枚構成かなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/432
433: 名無しさん@ピンキー (ワッチョイ e6c8-vRSx) [sage] 2025/09/21(日) 19:57:54.80 ID:ewooSzNA0 CPUよりメモリ速度が問題なんじゃないの http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/433
434: 名無しさん@ピンキー (ワッチョイ f2d3-OtDG) [sage] 2025/09/21(日) 20:42:01.00 ID:UQ+WCB620 epycで良くないか? SP5ソケットなら最大12ch動作やから500GB/sくらい出たはず それにデュアルcpuにすれば理論帯域幅も倍になるから1000GB/s超えも狙える(ソフト側の問題で実際の速度向上は30%程度らしい) まあCCDの数で実際の帯域幅は律速されるから12chフルで使えるCPUにすると数百万コースやけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/434
435: 名無しさん@ピンキー (ワッチョイ f2d3-OtDG) [sage] 2025/09/21(日) 21:01:38.73 ID:UQ+WCB620 調べたら9B45とか128core DDR5 12channel で50万くらいなので組み方次第で100万以下も狙えそう MoEならGPUも載せて一部オフロードすればさらに高速化狙えるし http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/435
436: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/21(日) 21:30:49.13 ID:cNbiFHnF0 pcie4.0でいいやと思ってsp3マザーとzen2epyc狙い http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/436
437: 名無しさん@ピンキー (ワッチョイ bffd-XlN9) [sage] 2025/09/22(月) 00:16:15.61 ID:oEFIPp9o0 magistral 1.2推論ってやつ使ってないけど普通に楽しいや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/437
438: 名無しさん@ピンキー (ワッチョイ b6a9-HCKT) [sage] 2025/09/22(月) 00:26:54.28 ID:b0NiJC3J0 epycはxeonのAMXより速いってベンチマーク出してきてるけどほんまなんかな llmのcpu推論は第三者のベンチマークがほとんどないんよなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/438
439: 名無しさん@ピンキー (ワッチョイ f2c7-yPTp) [sage] 2025/09/22(月) 05:29:51.21 ID:acG4VmK/0 Threadripper Proやepyc買うなら24コア以上推奨 16コア以下だとCCD数の関係で、例えば8chのメモリ帯域をフルに活かせない chが増えるほど必要なCCD数がいるはず http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/439
440: 名無しさん@ピンキー (ワッチョイ 2f32-vRSx) [sage] 2025/09/22(月) 23:57:09.88 ID:VRVV12LZ0 jukofyork/command-a-03-2025-uncut command-aの規制解除版(lora統合かな?) 規制強かった3月版が、エロエロになったわw http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/440
441: 名無しさん@ピンキー (ワッチョイ f2b0-gFLl) [sage] 2025/09/23(火) 04:37:00.70 ID:zbNZTUaY0 qwen3 omniは純粋に面白そう 日本語での音声入出力が可能らしい http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/441
442: 名無しさん@ピンキー (ワッチョイ 36a0-vRSx) [sage] 2025/09/23(火) 07:19:21.83 ID:SJavagWE0 まもなく10月だが、Windows11とかCPUとかどうでもいい TPMなんか無くても何ら問題ない http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/442
443: 名無しさん@ピンキー (ワッチョイ fb07-XBLx) [sage] 2025/09/23(火) 07:46:08.73 ID:Wf25WXgH0 Sandyおじさん「まだ・・・・・・戦える」 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/443
444: 名無しさん@ピンキー (ワッチョイ f7fb-5nxf) [] 2025/09/23(火) 09:25:22.55 ID:bSvVK3GU0 Qwen明日またモデル出るっぽいな ミニサイズで性能良かったら嬉しいが、 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/444
445: 名無しさん@ピンキー (ワッチョイ 2249-YdyK) [] 2025/09/23(火) 14:14:46.14 ID:J/x1dQw60 Qwenのリリース速度はすごいな さすがアリババ クラウドサービス持ってるところは強い http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/445
446: 名無しさん@ピンキー (ワッチョイ f3a4-KxXW) [sage] 2025/09/24(水) 06:28:25.56 ID:Tg8zlyhV0 >>424 人類が意味と価値を見出せるパターンが文章より圧倒的に少ない ローカルで動いてる画像生成なんて裸の女の子ドーン!みたいな似たような絵しか出ないやろ それに自然言語で色々出せるモデルはそろそろローカルじゃキツくなってきてるころや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/446
447: 名無しさん@ピンキー (ワッチョイ db8e-fBkI) [] 2025/09/24(水) 12:35:38.81 ID:PYQ60cU40 エロ小説をLMstudio君に生成させてみたいんだけどどのモデルがいいのかね? さすがにgptモデルじゃ無理でした… http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/447
448: 名無しさん@ピンキー (スプープ Sdb2-0UjF) [sage] 2025/09/24(水) 12:42:07.18 ID:l8hRk/lgd >>447 https://huggingface.co/huihui-ai/models?sort=downloads#repos http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/448
449: 名無しさん@ピンキー (ワッチョイ db8e-fBkI) [] 2025/09/24(水) 17:44:39.49 ID:PYQ60cU40 >>448 おほーサンクス 家に帰ってみたら早速実装してみます http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/449
450: 名無しさん@ピンキー (ワッチョイ 72ec-iuAP) [sage] 2025/09/24(水) 17:49:04.04 ID:q/lnB44d0 オナテク板で真面目なLLM性能も議論してるから教えて欲しいんやが コード添付して色々教えてもらうのってどのモデルがええんや? GPTやと1つのphpコードであれこれ入門的な説明してもらってるときに 「添付があるからこれ以上続行すらさせへんで」になるからLLMでやりたいんや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/450
451: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/24(水) 17:54:58.36 ID:gl5NAfdi0 codingとか名前付いてるやつかgpt-ossでいいんじゃない でもクラウドモデルのが圧倒的にいいからgpt以外も試してみるべきかな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/451
452: 名無しさん@ピンキー (ワッチョイ f26b-YdyK) [] 2025/09/24(水) 18:06:27.43 ID:EqE2QH2E0 codex使えば? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/452
453: 名無しさん@ピンキー (ブーイモ MM92-QGC9) [sage] 2025/09/24(水) 18:08:51.17 ID:wQMvlyu2M コーディングだとclaudeが強いって前に評判だったけど最新の情勢は違うのかもしれん ローカルだとそもそもコンテキストサイズ的に満足行く回答が得られるか怪しいと思うで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/453
454: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/24(水) 18:11:18.89 ID:gl5NAfdi0 claude安定なのはそうだけど添付で怒られるってので勝手に無料想定して外してたわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/454
455: 名無しさん@ピンキー (ワッチョイ 72ec-iuAP) [sage] 2025/09/24(水) 18:17:46.93 ID:q/lnB44d0 >>451-453 サンガツ 添付が無かったらワイのつたない質問でも永遠に相手してくれるんやが 100行のPHPコードだけでもすぐに「このスレッドには添付があるからこれ以上は質問すらさせへんで」になるのが無料やから仕方ないんよな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/455
456: 名無しさん@ピンキー (スプープ Sdb2-0UjF) [sage] 2025/09/24(水) 18:22:03.89 ID:l8hRk/lgd コーディングはエロ小説と違って間違いが一つでもあると動かないからローカルLLMではまだ厳しい Qwen3-Coder-480B-A35B-Instructでも微妙だった http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/456
457: 名無しさん@ピンキー (ワッチョイ 1f81-gFLl) [sage] 2025/09/24(水) 18:55:55.40 ID:ARkRWnqL0 どうしてもローカルがいいならgpt-oss 20B/120Bかqwen3 coder試してみて、ダメだったらcodexとかclaude codeにいくしかないと思うで 強めのグラボ積んでるならLM StudioでGPU offloadを最大にしてflash attensionを有効にすればワイの環境ならgpt-oss 120Bで140tok/sec出てるで 長めの文章読み込めるようにcontext lengthをそのモデルの最大(gpt-ossなら13万)にするか、遅くならない程度の値にしておくんやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/457
458: 名無しさん@ピンキー (ワッチョイ bffd-pB+b) [sage] 2025/09/24(水) 18:56:33.04 ID:gh85Ul4x0 コードを扱うならどこのAIでも良いので大人しく課金した方が良い 仕事でバリバリ使ってない限り20$の一番安いプランで、 チャットでもCLIでもまず制限には当たらない http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/458
459: 名無しさん@ピンキー (ワッチョイ 1f81-gFLl) [sage] 2025/09/24(水) 18:56:50.60 ID:ARkRWnqL0 ↑gpt-oss 20Bで140tok/sec出てるで の間違いや 120Bで140tok/sec出るモンスターPCほしいわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/459
460: 名無しさん@ピンキー (ワッチョイ d2bb-gFLl) [sage] 2025/09/24(水) 18:58:19.78 ID:/Sudpaw60 ai studioでいいのでは? あそこ制限ないぞ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/460
461: 名無しさん@ピンキー (ワッチョイ 72ec-iuAP) [sage] 2025/09/24(水) 19:03:54.92 ID:q/lnB44d0 >>456-458 それでご飯食べてるわけではなくて初学者で まれにファイル添付して全体的な質問をする時があるくらいやからその時はローカルでと思ったんやが codeがついているモデルで添付OKなモデルでやってみるやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/461
462: 名無しさん@ピンキー (ワッチョイ bf06-/zn3) [] 2025/09/24(水) 19:09:04.54 ID:w2HZ4JhN0 動かなかったら直せばええ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/462
463: 名無しさん@ピンキー (ワッチョイ 9320-VUrW) [sage] 2025/09/24(水) 19:44:20.87 ID:ZtGaaXzi0 試行錯誤の時間のほうがコスト高い ノールックでChatGPT契約して http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/463
464: 名無しさん@ピンキー (ワッチョイ 9320-VUrW) [sage] 2025/09/24(水) 19:47:13.41 ID:ZtGaaXzi0 なんも考えずにChatGPT契約して使い倒してから続けるか止めるか考えればいい ローカルLLMは日本語でやりとりすることによる 性能ロスが大きすぎるから殆どの用途で使い物にならん 英語ネイティブですというなら違う可能性はあるけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/464
465: 名無しさん@ピンキー (ワッチョイ 1f81-gFLl) [sage] 2025/09/24(水) 22:16:39.94 ID:ARkRWnqL0 ChatGPTの契約はもう必須と捉えてるからコストとして考えてないわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/465
466: 名無しさん@ピンキー (ワッチョイ c74a-QGC9) [sage] 2025/09/25(木) 00:14:40.76 ID:s66GNXV70 確かにガソリン代みたいなとこはある http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/466
467: 名無しさん@ピンキー (ワッチョイ f7b6-/zn3) [sage] 2025/09/25(木) 06:53:11.82 ID:Z3kA1xHf0 ワイも必須になりつつある 毎日の食事カロリー計算から運動のリマインダー、 あとマイコンボードでのデバイス制作とめちゃ助かってる (肝心な部分はredditの海外ニキらのコメントだが) でもローカルLLMはロマンはあるンゴね http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/467
468: 名無しさん@ピンキー (ワッチョイ be05-AIfB) [sage] 2025/09/25(木) 21:49:20.04 ID:d920FlUw0 日本語が下手なので使いこなすのも何気にエネルギー要るのはワイだけか http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/468
469: 名無しさん@ピンキー (JP 0H6e-MM1T) [sage] 2025/09/25(木) 21:55:28.51 ID:apj1zCrgH カロリーは脳ミソでもかなり消費するはずだから エネルギーが要るというのは間違ってはないと思う お堅い文面でもLLMにぶち込むモノでも頭はけっこう使うし http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/469
470: 名無しさん@ピンキー (ワッチョイ f3f5-h6sN) [sage] 2025/09/25(木) 21:55:47.21 ID:XUPSdIh90 >>468 プロンプトの書き方も使いこなし方もAIに聞いてお勉強するんや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/470
471: 名無しさん@ピンキー (ワッチョイ 4fa3-mwor) [] 2025/09/26(金) 09:41:39.48 ID:D5GOUI0s0 【朗報】さくらインターネットのAI、「さくらのAI Engine」の一般提供開始!!国策AIがついに動き出す! [673057929] http://greta.5ch.net/test/read.cgi/poverty/1758803926/ これ一から自前で作ってる国産? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/471
472: 名無しさん@ピンキー (ワッチョイ e6c8-vRSx) [sage] 2025/09/26(金) 10:03:49.54 ID:3oIDKL/g0 ただのインフラ屋のさくらがそんなもん自前で出来るわけないやん http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/472
473: 名無しさん@ピンキー (ワッチョイ 36a0-vRSx) [sage] 2025/09/26(金) 10:28:37.64 ID:LgalYGqC0 大体国産のりんなとかクソだし http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/473
474: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/26(金) 10:40:18.73 ID:ew8oCKRT0 さくら最近gpu鯖そこそこ用意してたし良し悪し問わなきゃモデル作るのも難しくはないから オリジナルの可能性もなくはないな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/474
475: 名無しさん@ピンキー (ワッチョイ bf37-pB+b) [sage] 2025/09/26(金) 10:43:36.23 ID:3MPCfvV80 https://www.sakura.ad.jp/aipf/ai-engine/ OSSのモデルをAPIから使えるようにしましたレベルじゃね? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/475
476: 名無しさん@ピンキー (ワッチョイ bec4-fBkI) [sage] 2025/09/26(金) 11:12:55.12 ID:ooNX2+Db0 スレのソースにすら自作なんて書いてないやん http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/476
477: 名無しさん@ピンキー (ワッチョイ 36a0-vRSx) [sage] 2025/09/26(金) 12:01:00.87 ID:LgalYGqC0 Qwen3だって書いてるやん https://x.com/ogasahara/status/1970779595516637430 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/477
478: 名無しさん@ピンキー (スッププ Sd92-0UjF) [sage] 2025/09/26(金) 16:22:32.96 ID:+QY55fpBd QwenとかのMoEモデルを誰か日本語ファインチューニングしてくれないかな 主力モデルが日本語を捨ててるからレスポンスに謎言語が混ざりすぎる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/478
479: 名無しさん@ピンキー (ワッチョイ f227-YdyK) [] 2025/09/26(金) 17:23:27.60 ID:f/GM/BxQ0 >>478 数ヶ月前までRinnaがやってたけどな最近は更新されてないか http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/479
480: 名無しさん@ピンキー (ドコグロ MMca-YdyK) [] 2025/09/26(金) 17:23:52.17 ID:vox1d4RkM 日本語はGLMが優秀だぞ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/480
481: 名無しさん@ピンキー (スッププ Sd92-0UjF) [sage] 2025/09/26(金) 17:30:12.31 ID:+QY55fpBd >>479 rinnaはdenseモデルしかFT実績がないな MoEのFTは海外ではチラホラ見かけるが技術的に壁があるのかも知らん http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/481
482: 名無しさん@ピンキー (ワッチョイ 36a0-vRSx) [sage] 2025/09/26(金) 20:36:32.90 ID:LgalYGqC0 クソ真面目な話をすると仕事で売上予測とかやりたい場合にLLMのモデルって使うの? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/482
483: 名無しさん@ピンキー (ワッチョイ efd8-gFLl) [] 2025/09/26(金) 20:43:31.02 ID:3B4su3U20 予測はLLM使わんでも線形回帰でええやん http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/483
484: 名無しさん@ピンキー (スッププ Sd92-0UjF) [sage] 2025/09/26(金) 20:46:48.46 ID:+QY55fpBd >>482 アフィカス記事を量産するためにLLMが使われている http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/484
485: 名無しさん@ピンキー (ワッチョイ bf38-/zn3) [] 2025/09/26(金) 20:47:53.63 ID:EP60vsIo0 詐欺メールもだな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/485
486: 名無しさん@ピンキー (ワッチョイ be1c-XBLx) [sage] 2025/09/26(金) 21:31:46.16 ID:ZBmkLOHp0 予測はboosting木とかの古典的機械学習とかDLのクラス分類とかじゃろ メディア通すとまとめてAIやが http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/486
487: 名無しさん@ピンキー (オッペケ Srd7-l4qr) [] 2025/09/26(金) 22:16:39.04 ID:UNdtCLMYr ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね これからローカルLLMて進展が出てくるの期待だわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/487
488: 名無しさん@ピンキー (ワッチョイ f227-YdyK) [] 2025/09/26(金) 23:14:28.18 ID:f/GM/BxQ0 llama.cppでもうすぐQwen3 Nextがサポートされそう http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/488
489: 名無しさん@ピンキー (ワッチョイ c78f-gFLl) [sage] 2025/09/26(金) 23:17:13.30 ID:Q0uc5QEE0 朗報やね。っていうか対応させるまで数ヶ月かかりそうとか言ってたはずなのに、技術者さんたち凄すぎんか http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/489
490: 名無しさん@ピンキー (ワッチョイ b6a9-HCKT) [sage] 2025/09/26(金) 23:22:35.69 ID:IPM/731m0 nextの時点でだいぶ性能いいから3.5楽しみなんだよなぁ そういう意味でnext対応しといてくれると3.5出たときに対応スムーズに行きそうやね http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/490
491: 名無しさん@ピンキー (ワッチョイ a36a-3wxO) [] 2025/09/26(金) 23:31:10.61 ID:Gt003hUg0 jpxがなんか予測に使ってたな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/491
492: 名無しさん@ピンキー (ワッチョイ be9f-XBLx) [sage] 2025/09/26(金) 23:35:35.60 ID:ZBmkLOHp0 Qwenのthinkingモデルはローカルでこれ使っていいのかって性能で驚くけど長考癖が不満やなあ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/492
493: 名無しさん@ピンキー (ワッチョイ 4b0f-mOlO) [sage] 2025/09/27(土) 00:43:02.89 ID:FxwLTfep0 日本語エロ性能の更新が無くてすっかり真面目スレになってしまっているのが悲しい😭 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/493
494: 名無しさん@ピンキー (ワッチョイ 1fc3-dRFZ) [sage] 2025/09/27(土) 02:48:10.80 ID:siCyTYpR0 https://github.com/MoonshotAI/K2-Vendor-Verfier kimi K2がホスティングサービス毎のツール呼び出し成功率測ってたけどfp8とfp4で30%以上成功率下がるらしい もしかして世間で言われてる以上に4bit量子化による性能低下って大きいのか? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/494
495: 名無しさん@ピンキー (ワッチョイ 0fa9-k09M) [sage] 2025/09/27(土) 07:51:56.30 ID:0L5nCDDl0 4bitは結構性能下がるよ あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/495
496: 名無しさん@ピンキー (ワッチョイ 7b8a-mDdK) [] 2025/09/27(土) 14:01:26.70 ID:wwGJW0Qw0 冷やすの? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/496
497: 名無しさん@ピンキー (ワッチョイ 8bc7-2yqi) [] 2025/09/27(土) 23:25:17.87 ID:LUN7vlE20 >>450 とりあえずclaudeのmaxプランに加入するとええで レートリミット限界まで使わんと損した気になるから開発も学習も捗る mcpがチャット版でも使えるのも大きい 特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽 まぁ何より頭がええんやけどな よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/497
498: 名無しさん@ピンキー (ワッチョイ 8b85-ah/d) [] 2025/09/28(日) 09:50:05.52 ID:nL1wk7TI0 >>493 新参者の面白AI出てきてないからしゃあない http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/498
499: 名無しさん@ピンキー (ワッチョイ 1f7a-wHYv) [sage] 2025/09/28(日) 11:51:52.52 ID:LtpdYNKa0 なるほど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/499
500: 名無しさん@ピンキー (ワッチョイ ef27-dUNe) [sage] 2025/09/28(日) 12:57:36.45 ID:6EZ3OtYY0 初期はChatGPTがエロ厳しいからローカルでみたいなモチベーションあったけど 今は色んなサービス増えて規制ゆるくなってるし何なら無料枠でも結構遊べるからな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/500
501: 名無しさん@ピンキー (ワッチョイ 9fd0-mDdK) [] 2025/09/28(日) 20:50:48.48 ID:RcruL3Dv0 無知ですいません。おしえてください。EasyNovelAssistantを導入しライトノベルを書かせたいのですが、APIなどで料金が発生するのでしょうか? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/501
502: 名無しさん@ピンキー (ワッチョイ 4b00-mOlO) [sage] 2025/09/28(日) 22:31:48.46 ID:Ic/L9Cef0 >>501 ローカル=自分のPC内で全て完結するシステムなので料金は一切発生しないよ ただしPCの性能が求められるので使ってるものによってはPCパーツ交換代がかかる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/502
503: 名無しさん@ピンキー (ワッチョイ 9fd0-mDdK) [] 2025/09/29(月) 00:02:34.73 ID:W6AEx9QY0 >>502 返答ありがとうございます。2060spなので不安ですが試してみます http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/503
504: 名無しさん@ピンキー (ワッチョイ 1f2a-83xT) [sage] 2025/09/29(月) 11:07:49.68 ID:fgNrT5iD0 中華がCUDA互換のVRAM112GBグラボ出すらしいがこれいくらになるんだ? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/504
505: 名無しさん@ピンキー (ワッチョイ 8b64-yVYr) [sage] 2025/09/29(月) 18:35:32.39 ID:o2F/d5is0 Qwen3-Next-80B-A3B-Instruct、これ総量160Gくらいあるやんけ ワイの24Gなどアリンコやった 試せてるニキらはもう選ばれし者すぎなんよ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/505
506: 名無しさん@ピンキー (スッププ Sd3f-H6CU) [sage] 2025/09/29(月) 19:17:38.22 ID:Rnc8/N8gd >>505 ツールのGGUF対応を待ってメインメモリへのオフロードを前提にすれば必要なメモリはだいぶ減るで ワイのメモリ128GB&VRAM24GB環境でもいつかは動くと信じて口開けて待っとるで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/506
507: 名無しさん@ピンキー (ワッチョイ 8b64-yVYr) [sage] 2025/09/29(月) 19:37:57.15 ID:o2F/d5is0 >>506 サンガツやで ワイDDR4で上限いっぱい128G搭載済みなんやが総量が足らンゴ ニキと同じく待つことにする…… http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/507
508: 名無しさん@ピンキー (ワッチョイ 4b8f-L54C) [sage] 2025/09/29(月) 19:53:11.25 ID:Mrcfa+Ng0 ほとんどの人はツール側が対応してくれるの待ちやで。128GBもあればQ8_0でも動かせるやろ ワイ64GB環境やと高望みしてQ6、実際問題Q4がええとこやろなぁ…… http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/508
509: 名無しさん@ピンキー (JP 0H6f-L54C) [] 2025/09/29(月) 21:22:12.02 ID:Pe/CSr+TH 動画生成用に増設したDRAMがここでも役に立つとは嬉しいンゴ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/509
510: 名無しさん@ピンキー (ワッチョイ 4b00-3WT3) [] 2025/09/29(月) 23:28:05.71 ID:OuKsRs/I0 推論中にタスクマネージャ見てるとCPUもGPUも使用率そこまで上がらないんですね 読み込むのに容量が必要なだけで推論自体はそこまでリソース使わないって認識で合ってますか? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/510
511: 名無しさん@ピンキー (ワッチョイ 6bdc-foQI) [sage] 2025/09/29(月) 23:37:59.74 ID:euHBUb+W0 LLMは計算量そのものよりもとにかく高速なメモリアクセスがいるって感じ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/511
512: 名無しさん@ピンキー (ワッチョイ 1fba-4W0+) [] 2025/09/29(月) 23:46:12.11 ID:7xZP8KOK0 やってる計算はすげー単純だからなLLM http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/512
513: 名無しさん@ピンキー (ワッチョイ 4b00-3WT3) [] 2025/09/30(火) 01:14:40.06 ID:z5KqAsk90 command-a-03-2025とqwen3-235b-a22b 近いサイズまで量子化してあるやつを読み込んで推論したら command-aの方は0.8t/sぐらいなのに qwen3は5.0t/s出るんですけど なんでこんなに差があってqwen3の方は早いんですか? LMstudioでやってます、ロード時のパラメータでcommand-aには無いもの(エキスパート数とか)がqwen3にはありますがこれが影響してるのでしょうか ローカルLLMに最近手を出したにわかですがご教示お願いします🙏 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/513
514: 名無しさん@ピンキー (スッププ Sd3f-H6CU) [sage] 2025/09/30(火) 01:24:01.26 ID:tCAkB5and >>513 LLMに聞け http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/514
515: 名無しさん@ピンキー (ワッチョイ 1f32-ypyi) [sage] 2025/09/30(火) 03:48:45.53 ID:qQvZqTY80 gpuが上がりきらないのは無茶なモデルサイズとかでcpu-gpu間の転送やらメモリ速度やらのボトルネック http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/515
516: 名無しさん@ピンキー (ワッチョイ 0fa9-dUNe) [sage] 2025/09/30(火) 13:04:16.47 ID:9yGzL4/o0 >>513 モデル名に答え書いてある Qwenの方は"a22b"だから、計算量は22b http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/516
517: 名無しさん@ピンキー (ワッチョイ efc4-WlvJ) [sage] 2025/10/01(水) 00:44:32.62 ID:uGN2y/I+0 GLM4.6リリースされてる https://huggingface.co/zai-org/GLM-4.6 コーディングとロールプレイ強化らしい http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/517
518: 名無しさん@ピンキー (ワッチョイ 1fec-WBSx) [sage] 2025/10/01(水) 01:12:14.11 ID:ArnNxP8e0 LLMの系譜が多すぎ問題 上を辿ればアリババになるのが多いんやろか Linuxの系譜みたいに進化図があればわかりすいんやけどなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/518
519: 名無しさん@ピンキー (ワッチョイ 1f54-4W0+) [] 2025/10/01(水) 01:16:08.28 ID:9fO3SCJ10 アリババってQwenだけだろ DeepSeekもKimiもGLMも全く別の企業だよ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/519
520: 名無しさん@ピンキー (ワッチョイ 1fec-WBSx) [sage] 2025/10/01(水) 01:19:18.15 ID:ArnNxP8e0 そうなんか、知らんかったわ 中国は人数もおるだけに賢い人間の絶対数が桁違いなんやろな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/520
521: 名無しさん@ピンキー (スッププ Sd3f-H6CU) [sage] 2025/10/01(水) 01:19:55.41 ID:/m5iPuS8d GLMはAirじゃないと家庭用PCで厳しいのがな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/521
522: 名無しさん@ピンキー (スッププ Sd3f-H6CU) [sage] 2025/10/01(水) 01:21:23.33 ID:/m5iPuS8d >>520 オープンソースAIでアメリカを殴りに行くのが中国の国家戦略だから ぶっちゃけ現場は有無を言わさずオープンソースにさせられてると思う 俺らにはありがたい話だが http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/522
523: 名無しさん@ピンキー (ワッチョイ ef27-ilf8) [sage] 2025/10/01(水) 02:22:23.66 ID:aLX0Yi960 中国産の方が漢字対応マルチリンガル前提だから日本語にも強い印象 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/523
524: 名無しさん@ピンキー (ワッチョイ 1f61-dRFZ) [sage] 2025/10/01(水) 02:23:46.07 ID:says+YzV0 アメリカモデルを中国モデルが追い越したら一気に情勢は変わりそうではある 最も賢いモデルにユーザ需要が集中するall or nothingの狂ったLLM市場で性能が劣るモデルがなんとか爪痕を残すためにオープンウェイトにしてるだけだろうしな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/524
525: 名無しさん@ピンキー (ワッチョイ 1f61-dRFZ) [sage] 2025/10/01(水) 02:25:47.66 ID:says+YzV0 >>523 自分の中だと完全に逆の印象 簡体字が http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/525
526: 名無しさん@ピンキー (ワッチョイ 9b03-dRFZ) [sage] 2025/10/01(水) 02:31:07.78 ID:32tNb9ZU0 途中送信すまん 簡体字が文章中に稀に混じるからそれだけで一気に日本語が下手に感じてまうというバイアスもあるんだろうけど中国モデルは合成データ使いまくったバリバリのベンチマーク最適化の影響か文章も硬くて文章表現力もClaude gpt geminiには勝てないって印象 工ロ用途でも全然だし http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/526
527: 名無しさん@ピンキー (スッププ Sd3f-H6CU) [sage] 2025/10/01(水) 02:35:32.20 ID:/m5iPuS8d >>524 いずれMoEモデルの先に好きなエキスパートをモジュールとして入れ替えられる時代が来ると思う 日本語強化モジュールや翻訳専用モジュール、個人データ特化モジュールetc 今は汎用モデルの強化合戦が続いているが頭打ちになればカスタマイズの話が出てくるだろう http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/527
528: 名無しさん@ピンキー (ワッチョイ 4b5d-AlTy) [sage] 2025/10/01(水) 03:49:46.55 ID:Zb9PagmX0 GLM-4.6 3bitでもメモリー足りぬ Sonnet 4.5よりベンチスコアいい(部分がある)とは http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/528
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.021s