なんJLLM部 避難所 ★9 (466レス)
なんJLLM部 避難所 ★9 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
1: 名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ) [] 2025/08/23(土) 13:52:18.71 ID:5lw7ZcNF0 !extend:checked:vvvvv:1000:512 !extend:checked:vvvvv:1000:512 AIに色々なことをしゃべってもらうんやで そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 自薦・他薦のモデルやツールは>>2以降 本スレ(避難中) なんJLLM部 ★7 https://fate.5ch.net/test/read.cgi/liveuranus/1710561010/ 前スレ(実質本スレ) なんJLLM部 避難所 ★8 https://mercury.bbspink.com/test/read.cgi/onatech/1746883112/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/1
386: 名無しさん@ピンキー (ワッチョイ 737f-2leZ) [sage] 2025/09/18(木) 22:06:54.00 ID:LE2em4Gi0 Magistral-Small-2509ってどんな感じなのかなここ向けならいいんだけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/386
387: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/18(木) 23:06:10.43 ID:fAedirXf0 2509はまだ試してないけど、Magistralは推論用のモデルだからNSFWとか小説とかならMistral Smallのほうが体感良い http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/387
388: 名無しさん@ピンキー (ワッチョイ 737f-2leZ) [sage] 2025/09/18(木) 23:41:16.26 ID:LE2em4Gi0 >>387 推論用って駄目なのかローカルでできる新しい奴っぽかったから残念だ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/388
389: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/19(金) 00:07:19.95 ID:zmt5WU+/0 >>388 駄目ってわけじゃないけど、もっと真っ当な用途で光るモデルって印象 あくまで体感だけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/389
390: 名無しさん@ピンキー (ワッチョイ 3f38-F72q) [sage] 2025/09/19(金) 00:24:06.08 ID:nGRCIev20 >>386 あんまり触れてないからあれだけどロールプレイも普通に行けて素のsmall 3.2よりこっちの方がいい感触 少なくとも今までのmagistralよりは良くなってる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/390
391: 名無しさん@ピンキー (ワッチョイ 7351-lzKx) [sage] 2025/09/19(金) 03:15:20.20 ID:3v9lWFVo0 推論は小説にしろロールプレイにしろ設定への忠実さは上がるけど表現が固くなるっていう諸刃の剣だからな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/391
392: 名無しさん@ピンキー (ワッチョイ cfa0-Gtql) [sage] 2025/09/19(金) 08:48:33.35 ID:hgot4X9W0 OpenAIエロ解禁するってよ、Grokにかなり客持って行かれたからな、イーロンのおかげかな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/392
393: 名無しさん@ピンキー (ワッチョイ bf1b-tA9e) [] 2025/09/19(金) 09:13:33.03 ID:EgO47bgd0 真面目性能でもgrokの圧勝だったしなあ GPT4o、5→リアルタイムweb検索できません grok4→今日最新のニュースをまとめてくれる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/393
394: 名無しさん@ピンキー (ワッチョイ cfa9-Gtql) [sage] 2025/09/19(金) 12:28:45.62 ID:URw4g0Lb0 今chatgptでautoに設定してると話題によっては勝手にWEB検索してくれるけどそれとは違うんか? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/394
395: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [] 2025/09/19(金) 13:04:49.13 ID:EgO47bgd0 それは昨日とか今日のじゃなくてモデルが作られた当時の最新じゃない情報を適当に並べたりしてるみたい なんかでたらめ言ってない?って問い詰めると白状した http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/395
396: 名無しさん@ピンキー (ワッチョイ 13c0-9HTd) [sage] 2025/09/19(金) 13:13:36.18 ID:u6Mvtc9k0 いや普通にWEB上のニュースとか検索してソースにしてるぞ 数日前に大雨で土砂崩れがあって旅行行けなくなったんだよねーとか話してたらちゃんとその件を調べて回答してくる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/396
397: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [] 2025/09/19(金) 13:17:21.02 ID:EgO47bgd0 4oの時は平然とデタラメ言ってきて、5になってからはあらかじめ断りを入れてくるようになったけどこんな感じやなあ https://i.imgur.com/hZlQIZD.jpeg http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/397
398: 名無しさん@ピンキー (ワッチョイ 731f-S5xV) [sage] 2025/09/19(金) 13:19:16.85 ID:zbVfwlxG0 リアルタイムweb検索というのがチャット中に検索してソースを調べることを指すなら普通にGPT5でできてるね 何なら情報源ボタンから確認したソースを一覧で左ペインに出してくれる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/398
399: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [] 2025/09/19(金) 13:20:44.20 ID:EgO47bgd0 ってことはもしかしたら4oの時のやりとりの記憶が足を引っ張っててずっと出来ません言い続けてるのかな? メモリリセットしてみるかあ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/399
400: 名無しさん@ピンキー (ワッチョイ 731f-S5xV) [sage] 2025/09/19(金) 13:21:28.14 ID:zbVfwlxG0 右ペインか >>399 無料プランだったりしない? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/400
401: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [] 2025/09/19(金) 13:23:38.37 ID:EgO47bgd0 >>400 plusだけどちゃんと有料の時にやってたよ でもそれが理由ですぐgrokに移ったけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/401
402: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [] 2025/09/19(金) 13:29:11.01 ID:EgO47bgd0 履歴削除してもっかいチャレンジしたら出来ませんとは言わなくなった でもソースのリンク先に飛んだら全部404のデタラメだわ… ちなみに今は無料プランでやってるからそのせいなのかも? ps://i.imgur.com/hZlQIZD.jpeg http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/402
403: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [] 2025/09/19(金) 13:29:53.21 ID:EgO47bgd0 画像間違えた、こっちだ https://i.imgur.com/Mgvil37.jpeg http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/403
404: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/19(金) 13:54:11.33 ID:zmt5WU+/0 画像全部404だからなんとも言えねえ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/404
405: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [sage] 2025/09/19(金) 14:05:35.53 ID:EgO47bgd0 ごめん間違えて削除してしまってた ちなみにニュースはどれも7月頃のものみたい ps://i.imgur.com/CLn1cx2.jpeg ps://i.imgur.com/zLPQkIv.jpeg http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/405
406: 名無しさん@ピンキー (ワッチョイ cfa9-KAWZ) [sage] 2025/09/19(金) 14:40:46.33 ID:URw4g0Lb0 「検索してます。。。」の表示出てる? サーチしてるとそういう表示出るんだけど もしかしたら検索モードに入ってないかもね あとDeepResearchはchatgptが頭一つ抜けててるかな chatgptのDeepResearch使用量を使い切ったときに他のサービス使うことあるけどまだまだ差がある http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/406
407: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/19(金) 14:48:13.34 ID:zmt5WU+/0 なんかおかしいね 自分(Plusユーザー)は無印5で何も指定しなくても検索されるわ 出典はピルで出る https://gzo.ai/i/Y203Mns.png https://gzo.ai/i/YrAgvaS.png http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/407
408: 名無しさん@ピンキー (ワッチョイ bf60-tA9e) [sage] 2025/09/19(金) 14:53:04.16 ID:EgO47bgd0 >>407 ふぁーマジかあ😳 なんか色々調べてみるよありがとう http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/408
409: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/19(金) 14:58:13.24 ID:zmt5WU+/0 ちなみに設定のPersonalizationで - カスタマイズとメモリ機能は全部切ってる - Advancedの項目でWeb search, Code, Canvas, Advanced voiceは全部有効にしてる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/409
410: 名無しさん@ピンキー (ワッチョイ 8fc8-Gtql) [sage] 2025/09/19(金) 15:21:25.09 ID:Uv8Nv+Fq0 grok4は文章固すぎるからgemini 2.5proの方がいいな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/410
411: 名無しさん@ピンキー (ワッチョイ 5332-yQ+A) [sage] 2025/09/19(金) 15:24:26.58 ID:WmeQwcXc0 OpenRouterってChatGPTみたいにメモリ機能や過去のチャット履歴を参照したりするの? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/411
412: 名無しさん@ピンキー (ワッチョイ 5332-yQ+A) [] 2025/09/19(金) 15:27:53.38 ID:WmeQwcXc0 >>407 特に指定しないなら必要だと判断したときのみ自動で検索するね 話題の振り方や内容によっては自動で検索してくれない http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/412
413: 名無しさん@ピンキー (ワッチョイ efdb-/yr3) [sage] 2025/09/19(金) 15:35:04.78 ID:zmt5WU+/0 >>411 OpenRouterのChat画面のことやろうけどしてないと思っていい OpenRouterの本業はAPI提供するだけで、チャット画面はおまけというかデモみたいなものや ルーム変えればコンテキストは共有しないはず、そもそも各々のAPI呼び出してるだけだからあんまり高度なことはできん http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/413
414: 名無しさん@ピンキー (ワッチョイ cfa0-Gtql) [sage] 2025/09/19(金) 16:07:34.91 ID:hgot4X9W0 GPTの文章力はかなりいいんだけど、エロ禁止だったからね GPTが解禁されたら他も追随するんだろうな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/414
415: 名無しさん@ピンキー (ワッチョイ cfa0-Gtql) [sage] 2025/09/19(金) 16:08:47.44 ID:hgot4X9W0 でもグーグルって個人情報抜きまくりから、エロでgeminiは使いたくないな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/415
416: 名無しさん@ピンキー (オイコラミネオ MM1f-jiGm) [sage] 2025/09/19(金) 17:12:58.21 ID:1NnrHC2qM プンルーはただのルーター APIも転送してるだけ カネになるとこだけやってる商売上手やで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/416
417: 名無しさん@ピンキー (ワッチョイ 7389-lzKx) [sage] 2025/09/19(金) 17:21:12.90 ID:3v9lWFVo0 $10チャージしたらいくつかのモデルが無料で使えるってだけで有料モデルはファーストパーティー繋げばいいしな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/417
418: 名無しさん@ピンキー (ワッチョイ 7f03-tCvQ) [sage] 2025/09/19(金) 18:50:34.87 ID:6ywWgI9i0 小説が読みたいんやなくて「会話」でエロいことしたいだけなんやが脱獄したgeminiやgptとローカルでやるのどっちがいいの? gptにはggufでQ4_K_Mくらいしか動かないですねって苦笑された低スペやけど・・・ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/418
419: 名無しさん@ピンキー (スッププ Sddf-jiGm) [sage] 2025/09/19(金) 19:36:23.24 ID:0vG+dwO9d >>418 ローカルは出力が遅すぎるという理由で会話は成り立たない オナスレの作り込まれたエロゲなら待ち前提でローカルでもそこそこ楽しめる http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/419
420: 名無しさん@ピンキー (ワッチョイ c320-vFl8) [sage] 2025/09/19(金) 20:43:05.74 ID:86mQsRdB0 ふつうのひとがローカルLLM使うメリットって全くない 個人が持てる程度のPCで動くLLMなら、open routerで無料か無料に等しいコストで使えてしまうので http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/420
421: 名無しさん@ピンキー (スッププ Sddf-jiGm) [sage] 2025/09/19(金) 20:52:55.46 ID:0vG+dwO9d >>420 ファインチューン目当てで環境構築したが 画像生成と違ってGGUFに手軽にLoRAを当てる環境が整ってないのよな まだまだソフトが発展途上だわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/421
422: 名無しさん@ピンキー (ワッチョイ c720-GsOJ) [sage] 2025/09/20(土) 01:23:57.48 ID:ExnGmMsF0 ローカルである程度のサイズのLLM動くPCに何十万円もかかってそれで性能有料サービス以下だからなあ サブスク何年分よ ゲームの趣味とか他に使い道あるならまあええけども http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/422
423: 名無しさん@ピンキー (ワッチョイ f70b-5nxf) [] 2025/09/20(土) 01:32:15.97 ID:hrmH+Mjd0 GPT-ossみたいな単一言語ガチガチにしたMoEモデル+翻訳専用SLMで組めるようになるのがローカルの終着点だと思っとるから数百BパラメータのLLM動かせるような環境はやりすぎな気はするわね http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/423
424: 名無しさん@ピンキー (ワッチョイ bf70-XlN9) [sage] 2025/09/20(土) 08:00:26.50 ID:p/li7AZa0 大手IT企業とか大学の研究機関ですらLLMの学習コストが高すぎるって言ってるからこれから量子化とかtransformersに代わる計算コストの低いアーキテクチャの研究が進むかもな そもそも人間は絵描いたりするより文章書く方が簡単なはずなのにAIは画像生成の方が必要リソースが少なくて言語モデルは倍近くのリソースが必要なのはなんでや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/424
425: 名無しさん@ピンキー (ワッチョイ a36a-3wxO) [] 2025/09/20(土) 08:06:01.28 ID:+jVh25Pi0 既に色々されてるが http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/425
426: 名無しさん@ピンキー (ワッチョイ 7732-kQ/7) [sage] 2025/09/20(土) 08:48:50.70 ID:xy79eLcb0 >>424 人間が絵より文章を書く方が得意なのは、文章が生きる上での必須技能でより多くの時間を費やすからだろ 人生で絵と文章どっちに多くの時間をかけてるのか考えてみるんだ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/426
427: 名無しさん@ピンキー (ワッチョイ dbb2-XlN9) [] 2025/09/20(土) 09:57:05.54 ID:KQrWb2+N0 >>426 簡単/難しいと得意/不得意は別の論な気もするのだが ワイは、絵は全てのピクセルに明確な意図を込める必要はなく、なんなら単なるノイズですら魅力的な絵の一部と見なされうるけど、文章において文字はそれが許容されるケースが極めて限定的ってあたりがよりリソースが必要になる原因の一つやないか、と思うんやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/427
428: 名無しさん@ピンキー (ワッチョイ f390-gFLl) [sage] 2025/09/20(土) 09:59:40.83 ID:qDJ0IAj30 >>421 普通に追加学習でファインチューンできると思うんだけど、上手くいかない感じ? まぁVRAMが量子化前のモデルサイズ×4倍くらいは要るのが環境面では大変よね http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/428
429: 名無しさん@ピンキー (ワッチョイ c720-GsOJ) [sage] 2025/09/20(土) 10:13:50.69 ID:ExnGmMsF0 視覚は莫大な情報の中から必要な物だけを抜き出す作業をしている 見たい部分が正しければ他は間違っていても気にならない 文章は伝えたい情報を全て文章化して相手に渡しており原則として相手は全てに目を通す 最初から最後まで確認するから間違いがあれば気づきやすい http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/429
430: 名無しさん@ピンキー (ワッチョイ 7732-kQ/7) [sage] 2025/09/20(土) 10:56:37.47 ID:xy79eLcb0 >>429 もちろんそういう問題もあるけど知識や技術の差も大きいで アホな小学生は文章の良し悪しや文法の間違いに気付くことが出来ない 絵も同じで画力が無い奴は絵のおかしな部分に気付くことが出来ないし、単に下手なのかわざと崩しているのかの区別もつかない 画力があると絵を見た瞬間に多くの情報を正しく拾っておかしな部分に気付いてしまう んで人類のほとんどはアホな小学生の文章力と同レベルの稚拙な画力しか持っていないから間違いが気になるはずもない 英語苦手な奴が英文読んだときにその良し悪しに気付かないのも同じことやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/430
431: 名無しさん@ピンキー (ワッチョイ be35-/zn3) [] 2025/09/20(土) 12:42:40.70 ID:JqUlC67e0 OpenRouterにGrok 4 Fastが来た。 しかもフリー。なんだこれ最高かよ。 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/431
432: 名無しさん@ピンキー (ワンミングク MMa2-tQaT) [] 2025/09/21(日) 10:00:43.82 ID:TZGwxDCYM CPU推論ってシングルスレッドが有効? スリッパだとシングルが弱い上にメモリアクセスにワンクッション挟むからRyzen 8000シリーズより遅くなる印象 ThreadripperならGPU複数枚構成かなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/432
433: 名無しさん@ピンキー (ワッチョイ e6c8-vRSx) [sage] 2025/09/21(日) 19:57:54.80 ID:ewooSzNA0 CPUよりメモリ速度が問題なんじゃないの http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/433
434: 名無しさん@ピンキー (ワッチョイ f2d3-OtDG) [sage] 2025/09/21(日) 20:42:01.00 ID:UQ+WCB620 epycで良くないか? SP5ソケットなら最大12ch動作やから500GB/sくらい出たはず それにデュアルcpuにすれば理論帯域幅も倍になるから1000GB/s超えも狙える(ソフト側の問題で実際の速度向上は30%程度らしい) まあCCDの数で実際の帯域幅は律速されるから12chフルで使えるCPUにすると数百万コースやけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/434
435: 名無しさん@ピンキー (ワッチョイ f2d3-OtDG) [sage] 2025/09/21(日) 21:01:38.73 ID:UQ+WCB620 調べたら9B45とか128core DDR5 12channel で50万くらいなので組み方次第で100万以下も狙えそう MoEならGPUも載せて一部オフロードすればさらに高速化狙えるし http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/435
436: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/21(日) 21:30:49.13 ID:cNbiFHnF0 pcie4.0でいいやと思ってsp3マザーとzen2epyc狙い http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/436
437: 名無しさん@ピンキー (ワッチョイ bffd-XlN9) [sage] 2025/09/22(月) 00:16:15.61 ID:oEFIPp9o0 magistral 1.2推論ってやつ使ってないけど普通に楽しいや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/437
438: 名無しさん@ピンキー (ワッチョイ b6a9-HCKT) [sage] 2025/09/22(月) 00:26:54.28 ID:b0NiJC3J0 epycはxeonのAMXより速いってベンチマーク出してきてるけどほんまなんかな llmのcpu推論は第三者のベンチマークがほとんどないんよなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/438
439: 名無しさん@ピンキー (ワッチョイ f2c7-yPTp) [sage] 2025/09/22(月) 05:29:51.21 ID:acG4VmK/0 Threadripper Proやepyc買うなら24コア以上推奨 16コア以下だとCCD数の関係で、例えば8chのメモリ帯域をフルに活かせない chが増えるほど必要なCCD数がいるはず http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/439
440: 名無しさん@ピンキー (ワッチョイ 2f32-vRSx) [sage] 2025/09/22(月) 23:57:09.88 ID:VRVV12LZ0 jukofyork/command-a-03-2025-uncut command-aの規制解除版(lora統合かな?) 規制強かった3月版が、エロエロになったわw http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/440
441: 名無しさん@ピンキー (ワッチョイ f2b0-gFLl) [sage] 2025/09/23(火) 04:37:00.70 ID:zbNZTUaY0 qwen3 omniは純粋に面白そう 日本語での音声入出力が可能らしい http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/441
442: 名無しさん@ピンキー (ワッチョイ 36a0-vRSx) [sage] 2025/09/23(火) 07:19:21.83 ID:SJavagWE0 まもなく10月だが、Windows11とかCPUとかどうでもいい TPMなんか無くても何ら問題ない http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/442
443: 名無しさん@ピンキー (ワッチョイ fb07-XBLx) [sage] 2025/09/23(火) 07:46:08.73 ID:Wf25WXgH0 Sandyおじさん「まだ・・・・・・戦える」 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/443
444: 名無しさん@ピンキー (ワッチョイ f7fb-5nxf) [] 2025/09/23(火) 09:25:22.55 ID:bSvVK3GU0 Qwen明日またモデル出るっぽいな ミニサイズで性能良かったら嬉しいが、 http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/444
445: 名無しさん@ピンキー (ワッチョイ 2249-YdyK) [] 2025/09/23(火) 14:14:46.14 ID:J/x1dQw60 Qwenのリリース速度はすごいな さすがアリババ クラウドサービス持ってるところは強い http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/445
446: 名無しさん@ピンキー (ワッチョイ f3a4-KxXW) [sage] 2025/09/24(水) 06:28:25.56 ID:Tg8zlyhV0 >>424 人類が意味と価値を見出せるパターンが文章より圧倒的に少ない ローカルで動いてる画像生成なんて裸の女の子ドーン!みたいな似たような絵しか出ないやろ それに自然言語で色々出せるモデルはそろそろローカルじゃキツくなってきてるころや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/446
447: 名無しさん@ピンキー (ワッチョイ db8e-fBkI) [] 2025/09/24(水) 12:35:38.81 ID:PYQ60cU40 エロ小説をLMstudio君に生成させてみたいんだけどどのモデルがいいのかね? さすがにgptモデルじゃ無理でした… http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/447
448: 名無しさん@ピンキー (スプープ Sdb2-0UjF) [sage] 2025/09/24(水) 12:42:07.18 ID:l8hRk/lgd >>447 https://huggingface.co/huihui-ai/models?sort=downloads#repos http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/448
449: 名無しさん@ピンキー (ワッチョイ db8e-fBkI) [] 2025/09/24(水) 17:44:39.49 ID:PYQ60cU40 >>448 おほーサンクス 家に帰ってみたら早速実装してみます http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/449
450: 名無しさん@ピンキー (ワッチョイ 72ec-iuAP) [sage] 2025/09/24(水) 17:49:04.04 ID:q/lnB44d0 オナテク板で真面目なLLM性能も議論してるから教えて欲しいんやが コード添付して色々教えてもらうのってどのモデルがええんや? GPTやと1つのphpコードであれこれ入門的な説明してもらってるときに 「添付があるからこれ以上続行すらさせへんで」になるからLLMでやりたいんや http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/450
451: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/24(水) 17:54:58.36 ID:gl5NAfdi0 codingとか名前付いてるやつかgpt-ossでいいんじゃない でもクラウドモデルのが圧倒的にいいからgpt以外も試してみるべきかな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/451
452: 名無しさん@ピンキー (ワッチョイ f26b-YdyK) [] 2025/09/24(水) 18:06:27.43 ID:EqE2QH2E0 codex使えば? http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/452
453: 名無しさん@ピンキー (ブーイモ MM92-QGC9) [sage] 2025/09/24(水) 18:08:51.17 ID:wQMvlyu2M コーディングだとclaudeが強いって前に評判だったけど最新の情勢は違うのかもしれん ローカルだとそもそもコンテキストサイズ的に満足行く回答が得られるか怪しいと思うで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/453
454: 名無しさん@ピンキー (ワッチョイ 7232-QENU) [sage] 2025/09/24(水) 18:11:18.89 ID:gl5NAfdi0 claude安定なのはそうだけど添付で怒られるってので勝手に無料想定して外してたわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/454
455: 名無しさん@ピンキー (ワッチョイ 72ec-iuAP) [sage] 2025/09/24(水) 18:17:46.93 ID:q/lnB44d0 >>451-453 サンガツ 添付が無かったらワイのつたない質問でも永遠に相手してくれるんやが 100行のPHPコードだけでもすぐに「このスレッドには添付があるからこれ以上は質問すらさせへんで」になるのが無料やから仕方ないんよな http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/455
456: 名無しさん@ピンキー (スプープ Sdb2-0UjF) [sage] 2025/09/24(水) 18:22:03.89 ID:l8hRk/lgd コーディングはエロ小説と違って間違いが一つでもあると動かないからローカルLLMではまだ厳しい Qwen3-Coder-480B-A35B-Instructでも微妙だった http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/456
457: 名無しさん@ピンキー (ワッチョイ 1f81-gFLl) [sage] 2025/09/24(水) 18:55:55.40 ID:ARkRWnqL0 どうしてもローカルがいいならgpt-oss 20B/120Bかqwen3 coder試してみて、ダメだったらcodexとかclaude codeにいくしかないと思うで 強めのグラボ積んでるならLM StudioでGPU offloadを最大にしてflash attensionを有効にすればワイの環境ならgpt-oss 120Bで140tok/sec出てるで 長めの文章読み込めるようにcontext lengthをそのモデルの最大(gpt-ossなら13万)にするか、遅くならない程度の値にしておくんやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/457
458: 名無しさん@ピンキー (ワッチョイ bffd-pB+b) [sage] 2025/09/24(水) 18:56:33.04 ID:gh85Ul4x0 コードを扱うならどこのAIでも良いので大人しく課金した方が良い 仕事でバリバリ使ってない限り20$の一番安いプランで、 チャットでもCLIでもまず制限には当たらない http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/458
459: 名無しさん@ピンキー (ワッチョイ 1f81-gFLl) [sage] 2025/09/24(水) 18:56:50.60 ID:ARkRWnqL0 ↑gpt-oss 20Bで140tok/sec出てるで の間違いや 120Bで140tok/sec出るモンスターPCほしいわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/459
460: 名無しさん@ピンキー (ワッチョイ d2bb-gFLl) [sage] 2025/09/24(水) 18:58:19.78 ID:/Sudpaw60 ai studioでいいのでは? あそこ制限ないぞ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/460
461: 名無しさん@ピンキー (ワッチョイ 72ec-iuAP) [sage] 2025/09/24(水) 19:03:54.92 ID:q/lnB44d0 >>456-458 それでご飯食べてるわけではなくて初学者で まれにファイル添付して全体的な質問をする時があるくらいやからその時はローカルでと思ったんやが codeがついているモデルで添付OKなモデルでやってみるやで http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/461
462: 名無しさん@ピンキー (ワッチョイ bf06-/zn3) [] 2025/09/24(水) 19:09:04.54 ID:w2HZ4JhN0 動かなかったら直せばええ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/462
463: 名無しさん@ピンキー (ワッチョイ 9320-VUrW) [sage] 2025/09/24(水) 19:44:20.87 ID:ZtGaaXzi0 試行錯誤の時間のほうがコスト高い ノールックでChatGPT契約して http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/463
464: 名無しさん@ピンキー (ワッチョイ 9320-VUrW) [sage] 2025/09/24(水) 19:47:13.41 ID:ZtGaaXzi0 なんも考えずにChatGPT契約して使い倒してから続けるか止めるか考えればいい ローカルLLMは日本語でやりとりすることによる 性能ロスが大きすぎるから殆どの用途で使い物にならん 英語ネイティブですというなら違う可能性はあるけど http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/464
465: 名無しさん@ピンキー (ワッチョイ 1f81-gFLl) [sage] 2025/09/24(水) 22:16:39.94 ID:ARkRWnqL0 ChatGPTの契約はもう必須と捉えてるからコストとして考えてないわ http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/465
466: 名無しさん@ピンキー (ワッチョイ c74a-QGC9) [sage] 2025/09/25(木) 00:14:40.76 ID:s66GNXV70 確かにガソリン代みたいなとこはある http://mercury.bbspink.com/test/read.cgi/onatech/1755924738/466
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.307s*