[過去ログ]
なんJLLM部 避難所 ★3 (1002レス)
なんJLLM部 避難所 ★3 http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
51: 名無しさん@ピンキー (ワッチョイ 3f34-PFUh) [sage] 2024/06/10(月) 23:44:01.92 ID:???0 そういやraps pi AI出るっぽいけど流石にllmまともに動かないよね http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/51
141: 名無しさん@ピンキー (ワッチョイ 7bbe-vjzl) [sage] 2024/06/19(水) 12:18:48.92 ID:???0 commandR+でもそれっぽい文章をつなぎ合わせて合成してるだけで意味は全然分かってないから 整合性が必要な話だとすぐ破綻するのな エロ要素一切なしでヒロインの家の風呂が壊れたから近所の銭湯に行くって設定与えるだけで平気で クラスメイとの男子が一緒に女風呂に入ってきやがる http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/141
171: 名無しさん@ピンキー (ワッチョイ 37f2-A6Ya) [] 2024/06/21(金) 14:52:56.92 ID:3AADtcAX0 初心者ですみませんが、ローカルでCR+使ってる人に質問です Koboldで使おうと思ってるんだけど設定とかどうしてます? Formatはinstract modeでInstruct Tag Preset はcommand rを使ってますが日本語で会話しようとしても英語やローマ字読みで返ってくることが多いですし、日本語で返ってきても言葉があやしい(例こんにちわ→こにちわ)、異常な長文等で返ってくる。 根本的になにか間違ってるのか知りたい 環境はWindows11で3090x2と3060x1で c4ai-command-r-plus-IQ3_M.ggufを使ってて理想としてはCR+のデモみたいになればいいかなと思ってます。 http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/171
225: 名無しさん@ピンキー (ワッチョイ ef65-rlhc) [sage] 2024/06/25(火) 12:11:17.92 ID:???0 >>223 あとprefillね あれに慣れるともうあれ無しじゃやってられなくなる http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/225
299: 名無しさん@ピンキー (ワッチョイ 7230-o0uY) [] 2024/06/30(日) 23:35:11.92 ID:l+xb5G3F0 7Bでもそこそこ遊べるのに少し上を求めると70Bだの100Bだの400Bだのインフレし過ぎよね http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/299
316: 名無しさん@ピンキー (ワッチョイ b68e-QEUw) [sage] 2024/07/02(火) 13:23:11.92 ID:???0 今ってエロとかマルチターンの指示への追従性含めた全体的な使用感(ベンチのスコアではなく)がCommand R Plusより良さげなOSSモデルってあるかな まあ好みもあるし曖昧だとは思うんだけど http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/316
418: 名無しさん@ピンキー (ワッチョイ 1f74-sPXK) [sage] 2024/07/09(火) 14:05:33.92 ID:???0 英語のchat arenaではllama3よりも点数高いから能力は高いと思うのよ あとは日本語のデータたくさん食わしてやれれば http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/418
489: 名無しさん@ピンキー (ワッチョイ 5332-urh9) [sage] 2024/07/16(火) 08:01:49.92 ID:???0 5070はVRAM 12GBみたいだし5080以上は高くて手が出しにくいから 3080 10GBから4070 ti superに換装しようと思ってるんだけどやっぱり迷うな 7Bを使えるようになったらだいぶ変わるんだろうか http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/489
531: 名無しさん@ピンキー (スププ Sdaa-vJcf) [sage] 2024/07/19(金) 16:32:35.92 ID:???d どんぐりレベル4強制表示で立ててここへの誘導貼っとくに一票 http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/531
687: 名無しさん@ピンキー (ワッチョイ 7bc1-/CG0) [sage] 2024/07/27(土) 15:18:05.92 ID:???0 >>683 オープンソースじゃないんだよなぁ たぶんフラッグシップモデルの開示はする予定じゃなかったんだろうけど オープンソースと言えるのはApache2.0ライセンスやMITライセンスのやつ LlamaもGemmaも制限があるし、Mistral Large2は研究用だから研究にしか使えない Gemmaライセンスは違法なことや公序良俗に反することに使うなってだけで制限が緩いけどね http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/687
776: 名無しさん@ピンキー (ワッチョイ d311-oRc+) [] 2024/08/04(日) 00:00:08.92 ID:IVhBltvZ0 >>775 コマンドラインで”jupyter lab”を実行するとJupyterっていうWebアプリが開くと思います そしたら、chat_gui.ipynbを左側のペインから開いて下さい そしたら、”上部メニュー -> Run -> run all cells”とクリックすると、起動するはず 途中デフォルトのモデルダウンロードのメッセージとかあると思うけど、GGUFをすでに持ってるなら、飛ばして下さい 今ちょっと調べたら出てきたJupyterの使い方 https://qiita.com/y-matsunaga/items/2c7efdae8777f15059e0 http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/776
951: 名無しさん@ピンキー (ワッチョイ 6f87-BM1p) [sage] 2024/09/03(火) 18:15:24.92 ID:???0 >>946 MacBookProのM3Max/128GB ロールプレイなら4t/sくらい出るけど小説とか長文吐かせると熱でクロック下がって2t/sくらいになる ギリギリ実用速度という感じ http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/951
982: 名無しさん@ピンキー (ワッチョイ 4b8e-bqpq) [sage] 2024/09/06(金) 23:59:03.92 ID:???0 AWQなら普通のTransformersで読み込めたよ http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/982
989: 名無しさん@ピンキー (ワッチョイ 7fc6-JdDg) [sage] 2024/09/08(日) 20:14:04.92 ID:???0 >>978 >>985 フルCPUで0.5t/sで、 RTX4090に24GB分任せても0.7t/sじゃ、 そんなに速くはならないんだな。 まぁ他にも要因はあるんだろうけど。 やはり全部GPUにしないと しかしそうすると、RTX4090で24GB載せて、残りCPUで0.7 http://mercury.bbspink.com/test/read.cgi/onatech/1717886234/989
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.039s