[過去ログ]
なんJLLM部 避難所 ★8 (1002レス)
なんJLLM部 避難所 ★8 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
8: 名無しさん@ピンキー (ワッチョイ f3c0-9L8h) [] 2025/05/10(土) 22:22:06.73 ID:0Ak3eO5y0 ●その他の最近話題になったモデルも挙げとくで 動きの速い界隈やから日々チェックやで Mistral-7B系: LightChatAssistant Antler-7B-RP Japanese-Starling-ChatV Antler-7B-Novel-Writing SniffyOtter-7B-Novel-Writing-NSFW Ninja-v1 Vecteus-v1 Berghof-NSFW-7B-i1-GGUF Llama3-70B系: Smaug-Llama-3-70B-Instruct-abliterated-v3 Cohere系: c4ai-command-r-08-2024 (35B) c4ai-command-r-plus-08-2024 (104B) magnumシリーズ(エロ特化): https://huggingface.co/collections/anthracite-org/v4-671450072656036945a21348 Lumimaid-Magnum: Lumimaid-Magnum-v4-12B magnumの日本語版: Mistral-nemo-ja-rp-v0.2 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/8
10: 名無しさん@ピンキー (ワッチョイ f3c0-9L8h) [] 2025/05/10(土) 22:24:24.73 ID:0Ak3eO5y0 テンプレここまで、しばらく更新されてないから過去ログも参考にしてな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/10
40: 名無しさん@ピンキー (ワッチョイ a34c-Fs2+) [sage] 2025/05/11(日) 11:12:14.73 ID:PQJRxjMR0 >>37 2022年のM1 Ultraにも負けてるじゃん? メモリの帯域幅が足りないからでは? 256GB/sではM1 Ultraの800GB/sには遠く及ばない http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/40
151: 名無しさん@ピンキー (ワッチョイ eaec-fjSQ) [sage] 2025/05/20(火) 00:23:35.73 ID:hbszdRYX0 intel arc 48GBがマジで売られそう 48GBで1000$以下らしい 帯域幅は456GB/sと狭いけどryxan AI maxよりは実用的かも http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/151
272: 名無しさん@ピンキー (ワッチョイ ef32-kszJ) [sage] 2025/06/04(水) 13:50:12.73 ID:4a8LWwHM0 >>271 おおサンキュ! 早速試したが、R1並みにいいかも webだから規制入ってるけどローカルならどうなんだろ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/272
341: 名無しさん@ピンキー (JP 0H47-zi4d) [] 2025/06/14(土) 02:00:38.73 ID:uPbPRNr/H ローカルでLLMを動かせると、そのローカルLLMのAPIを発行して、ネット上のAPIを入力して動かすツールを、全部無料で動かせるってことだよね? VSCodeとか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/341
379: 名無しさん@ピンキー (ワッチョイ 07c6-8g0J) [sage] 2025/06/17(火) 20:59:57.73 ID:NxenJLEA0 Qwen3ベースのrinnaのbakeneko出してほしい できれば235BA22B版も http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/379
435: 名無しさん@ピンキー (ワッチョイ dbe7-RXbr) [] 2025/06/21(土) 16:10:00.73 ID:LDsXYAvs0 >>433 ありがとう。でもだめでしたー 申し訳ありませんをされるか関係ないストーリーをベラベラ喋るかのどっちか まぁそもそもエッチなものを学習してないのかも知れんが http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/435
535: 名無しさん@ピンキー (ワッチョイ ff32-DZti) [sage] 2025/07/05(土) 05:34:36.73 ID:0Kq04l/h0 >>533 そんなデカイので検証はしてないけど、乗るぶんだけでもvramに載せたほうが速いとは思う でも大半が溢れるならほぼ誤差の速度かな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/535
586: 名無しさん@ピンキー (ワッチョイ 33c6-pJYp) [] 2025/07/09(水) 18:16:08.73 ID:3RWPoGdA0 なんかLM Studio入れたらstable diffusion webui a111が動かなくなっちゃった webuiは仮想環境で動かしてたはずなんだけど、numpyがありません的な venv消してもダメだしまいったな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/586
916: 名無しさん@ピンキー (ワッチョイ ff0f-McTy) [sage] 2025/08/12(火) 10:04:21.73 ID:1mdWcbDl0 ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい 事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/916
996: 名無しさん@ピンキー (ワッチョイ 1fe2-tp/S) [] 2025/08/22(金) 23:02:39.73 ID:sywHngdj0 もうみんなローカルLLMは使ってないの?APIのみ? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/996
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.037s