[過去ログ]
なんJLLM部 避難所 ★8 (1002レス)
なんJLLM部 避難所 ★8 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
277: 名無しさん@ピンキー (ワッチョイ 7fba-RMgv) [sage] 2025/06/04(水) 19:33:05.22 ID:AUnMmnLx0 >>275 70Bなんか動かせるマシン持ってるやつ少ねえよってのと最近は性能大幅に落としてもいいからエッジデバイスでいかにそれっぽいのを動かせるかに研究が移ってるっぽいからなあ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/277
327: 名無しさん@ピンキー (ワッチョイ 47c8-bdW6) [] 2025/06/12(木) 10:48:03.22 ID:hOd2zX6t0 >>324 4070tiなら12GBのVRAMに収まるようにって考えるかもしれないけど、 小説目的ならチャットみたいにリアルタイムな応答は必ずしも必要ないからメインメモリも使ってでっかいモデル動かすのもありやで http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/327
337: 名無しさん@ピンキー (ワッチョイ 6f7a-gw/n) [] 2025/06/13(金) 22:12:27.22 ID:scS7NRIV0 >>330 3台はすごいな、消費電力的にも。。 どんなモデルでも動かせるんじゃないか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/337
400: 名無しさん@ピンキー (テテンテンテン MMc6-zi4d) [] 2025/06/18(水) 14:26:48.22 ID:ArJjZrMTM 2025年06月18日 11時43分 世界最長のコンテキストウィンドウ100万トークン入力・8万トークン出力対応にもかかわらずたった7800万円でトレーニングされたAIモデル「MiniMax-M1」がオープンソースで公開され誰でもダウンロード可能に https://gigazine.net/news/20250618-minimax-m1-open-source/ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/400
504: 名無しさん@ピンキー (オッペケ Srb7-uwe9) [] 2025/06/30(月) 21:52:42.22 ID:oYi5WPuwr 皆さんありがとうございます エロゲーがベストっぽいですね(?) >>502 書き起こしってデータとしてセリフテキストが格納されてるってことでしょうか? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/504
530: 名無しさん@ピンキー (ワッチョイ 8f32-tZo/) [sage] 2025/07/03(木) 19:20:11.22 ID:Z9QAcI2Y0 >>527 サンキュー順番に調べてみる 日本語入力でなくて英語入力でいいから、copilotみたいに構図やキャラを変えずに 要求通り描いてくれたらいいので http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/530
568: 名無しさん@ピンキー (ワッチョイ ff32-DZti) [sage] 2025/07/07(月) 06:11:14.22 ID:8gVXwT/L0 程度によるけど、大企業さまの1000Bとか2000B相当と言われるようなのでも定型文は出ちゃうからどうでしょう http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/568
573: 名無しさん@ピンキー (ワッチョイ cfbc-rJp5) [sage] 2025/07/07(月) 21:32:10.22 ID:/WE7oxmV0 Qwen3 の 14b 使ってみたんだけど同サイズのLLMと比べて頭1つ抜けて頭よくてびびる tool と think 対応っていうのがめちゃくちゃデカい Open WebUI が Native Tool Calling に対応したから自動でツール使用の判断してくれるし think のおかげでできないことはできないってちゃんと判断して伝えてくれる 唯一ダメなところは文字数指定の出力だけど、これは他のモデルでも同じだからしょうがない あとは vision 機能だけあればかなりいい感じなんだけど Gemma3 は vision 対応してるけど think 未対応だから Qwen3 と知性の面で大きな差を付けられちゃってる感じ Gemma が tool + think + vision 対応になってくれればまた状況が変わるかもしれないけど それと Open WebUI が以前よりかなり進化してて驚いた RAG とか画像生成とか Web 検索とか簡単に連携できてほぼ ChatGPT やん ここのスレ的にはあんまり人気ないみたいだけど http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/573
729: 名無しさん@ピンキー (ワッチョイ 6f75-0RW4) [sage] 2025/07/24(木) 18:03:59.22 ID:1E+cyGo40 >>728 runpodとか使えばvram72gb環境が0.5$/hぐらいで借りれるで http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/729
788: 名無しさん@ピンキー (スププ Sd7f-kMzZ) [] 2025/08/04(月) 01:56:45.22 ID:8+UJWzjed wannabeってgemini2.5proと比べてどうなん? ある程度遊べるなら画像生成に飽きて持て余してる4090を稼働させたいんやが http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/788
806: 名無しさん@ピンキー (ワッチョイ 5f32-Y3w+) [sage] 2025/08/05(火) 22:42:25.22 ID:/cfyr/cM0 >>804 超にわかなんだけどリーズニングモデルを意味してる事が多いと思ってる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/806
972: 名無しさん@ピンキー (ワッチョイ df3d-fSvz) [sage] 2025/08/21(木) 00:02:39.22 ID:wevjbNHK0 100B前後のmoeはdenseの24-32B程度の性能しかない(LMarena基準) それでいてオフロードしないと動かせないし速度もアクティブパラメータ次第だけどVRAMに全部載った30Bより遅い 例えばgpt oss 120B(A5.1B)を4090 + DDR5 96GBで動かすと15-20t/s GLM4.5 airだと10-12t/s 一方高密度32Bモデルの4bitが4090で30-35t/sも出る その上微調整しようとするとパラメータ数相応のメモリが要求されるから嫌い サービスを提供したりcpuオンリー環境なら恩恵あるのは理解できるけどね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/972
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.049s