[過去ログ]
なんJLLM部 避難所 ★8 (1002レス)
なんJLLM部 避難所 ★8 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
72: 名無しさん@ピンキー (ワッチョイ 3ffb-S5D2) [sage] 2025/05/12(月) 11:14:36.99 ID:NreAwN7e0 >>71 そのグラフを見ると確かに4bitでも問題なさそうに見える 巷でも4bitならOKとされているのも理解しているけど、自分の環境で実際に出力されたものを比較すると明らかにq6、q8の方が良い結果を出す確率が高く感じる 小説しかり、コーディングしかり http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/72
73: 名無しさん@ピンキー (ワッチョイ 3f7a-kIO2) [sage] 2025/05/12(月) 11:22:52.27 ID:eUjAc2ML0 たしか前にもこのスレで日本語に関しては量子化サイズの差が顕著って話が出てたな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/73
74: 名無しさん@ピンキー (ワッチョイ 53c5-7OJS) [sage] 2025/05/12(月) 13:01:44.06 ID:hvKSbNU/0 perplexityはなんか解像度が荒い指標な気がする http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/74
75: 名無しさん@ピンキー (オッペケ Sr37-o2kj) [sage] 2025/05/12(月) 13:09:06.82 ID:O6Go3Jijr perplexityよりKL-divergenceって指標のがいいらしいけどマイナーすぎて測られてないんだよな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/75
76: 名無しさん@ピンキー (ワッチョイ 13bd-9L8h) [sage] 2025/05/12(月) 13:14:44.15 ID:5F0YL1Av0 文章のベンチマークは難しいよね ベンチ結果は良くても文章としては「?」ってのもあるだろうし 自分たちが人力で日本語のドスケベ評価するしかないんや! http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/76
77: 名無しさん@ピンキー (ワッチョイ 737a-KB/z) [sage] 2025/05/12(月) 13:28:26.10 ID:CVsmR3mp0 llmにとって簡単なタスク、地の文と丁寧語>話の一貫性>>>キャラの言動と口調って感じがする qwen3-4Bですら地の文と丁寧語はそこそこ自然 データが豊富なんやろね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/77
78: 名無しさん@ピンキー (ワッチョイ 3f7a-kIO2) [sage] 2025/05/12(月) 13:31:22.63 ID:eUjAc2ML0 grok3に版権キャラの情報を収集させてから全力でなりきってって指示しても微妙だからな 今のはここが変、そこが日本語としておかしいってダメ出し続けると確かに偽物感は消える でもそれと引き換えに話の柔軟さが消えて返答がワンパターンになっていく ルールでがんじがらめにされてる感じやね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/78
79: 名無しさん@ピンキー (ワッチョイ cfa9-O94U) [sage] 2025/05/12(月) 13:56:12.95 ID:4tsgHbNM0 ロールプレイ依頼時に画像も収集してきてflux1あたりの高級な画像生成モデルのLoRA勝手に作って 応答するたびにそのコメントに合った画像を生成する・・・ のは今でも技術的にはできそうやけどそこまでの高機能なのは需要なさそうで作る人もいなさそうやな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/79
80: 名無しさん@ピンキー (ワッチョイ efab-KB/z) [] 2025/05/12(月) 13:57:26.53 ID:RozHuKzp0 ワイ、grok-3-betaとかfast-betaで條澤広ちゃん憑依させてあそんどるけど、モデルの素地が理系頭なのが関係してか、プロンプトで固めなくてもかなり広ちゃんで満足や 口調に関しては特徴的な語尾を中心に10個例示した程度だけで、特に例文に入れてないのに「ワクワクするね?」とか言ってきてくれてめっちゃ広ちゃんで嬉しい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/80
81: 名無しさん@ピンキー (ワッチョイ 439a-o2kj) [sage] 2025/05/12(月) 14:19:17.32 ID:VR31sma10 ローカルのスレだけどローカルモデルに限らないならキャラなりきりはGeminiが抜けてる感じがあるな こういうのはモデルの規模が物を言うからローカルはまだ厳しい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/81
82: 名無しさん@ピンキー (ワッチョイ efab-KB/z) [] 2025/05/12(月) 14:27:01.37 ID:RozHuKzp0 Geminiって倫理フィルターどうなん? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/82
83: 名無しさん@ピンキー (ワッチョイ 439a-o2kj) [sage] 2025/05/12(月) 14:39:42.69 ID:VR31sma10 >>82 スレチやからこっちでやらん? https://mercury.bbspink.com/test/read.cgi/onatech/1746936483/ ワイより詳しい人おるし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/83
84: 名無しさん@ピンキー (ワッチョイ 3fec-9L8h) [sage] 2025/05/12(月) 15:16:16.71 ID:xpvanbmK0 >>66 チャットテンプレートやモデル自体の目的が違うからやろね Wannabeは入力欄を自動的にwanabi 24bで学習させた形式に変換してるから内部的にはtekken V7(mistral small3)のチャットテンプレートなんや kobold(自動的にqwen3のチャットテンプレートを使用)なら動くけどwannabeでは動かないのはそういうことや そもそもWannabeは指示文から何から何までガッチガチに専用モデルに合わせてるから一般的なモデルを組み合わせるならEasyNovelAssitantの方がええやろな プロンプトやチャットテンプレートを指定できたはずやし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/84
85: 名無しさん@ピンキー (ワッチョイ 7fa0-m4Fo) [sage] 2025/05/12(月) 18:23:58.50 ID:ZpuTV0NJ0 >>71 それ古いよ。古すぎる。 25%はどの論文だったかな。ブックマークしとけばよかった http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/85
86: 名無しさん@ピンキー (ワッチョイ 3ff3-OGf6) [sage] 2025/05/12(月) 19:00:14.45 ID:WYVgugKJ0 ベンチマークというものは攻略可能だから、で性能差が1%!って出たらこの指標はもう死んでるなと解釈するのが妥当では 差があることなんて触ってみれば誰にでもわかる話だし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/86
87: 名無しさん@ピンキー (ワッチョイ 3f7e-KB/z) [sage] 2025/05/12(月) 22:03:20.50 ID:fBtqwjV90 https://cohere.com/research/papers/how-does-quantization-affect-multilingual-llms-2024-07-05 (1)量子化の有害な影響は人間の評価で明らかであり、自動指標はその悪影響を大幅に過小評価していることを発見しました。自動タスク全体での日本語の平均1.7%の低下は、現実的なプロンプトで人間の評価者が報告した16.0%の低下に相当します。 (2)言語は量子化によって異なる影響を受け、非ラテン文字言語への影響が最も大きいです。 (3)数学的推論などの難しいタスクは最も急速に低下します。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/87
88: 名無しさん@ピンキー (ワッチョイ 536f-HvxF) [sage] 2025/05/12(月) 22:23:16.04 ID:MP4meQDC0 海外のサービスみたいな一定以上の性能かつ多機能なアプリってあるんかな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/88
89: 名無しさん@ピンキー (ワッチョイ 33ca-aBcW) [sage] 2025/05/13(火) 05:19:05.25 ID:thJbNjvA0 >>70 サンガツやで 前スレニキのいう通りやったね、それを確認したかったんや 擬音ばかりになってもうた >>84 なるほどそういう仕組みやったんたね ワイのような初心者にはオートマみたいな便利さがあってホンマに助かっとるけど そこから外れるピーキーなモデルもあるんやな ありがとうやで http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/89
90: 名無しさん@ピンキー (ワッチョイ cfa9-O94U) [sage] 2025/05/13(火) 11:09:47.63 ID:/+QPsiaf0 llamacppがvision対応したって つーか今まで対応してなかったんか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/90
91: 名無しさん@ピンキー (ワッチョイ 53a5-7OJS) [sage] 2025/05/13(火) 11:10:53.03 ID:VeubRT620 >>87 これは富士通との協業で分かったことなのかな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/91
92: 名無しさん@ピンキー (ワッチョイ 4338-m4Fo) [sage] 2025/05/13(火) 11:23:40.44 ID:5FBdETti0 >>87 ありがとう 自分が見たのはこれじゃないけど8/4bit量子化の表があるね 人間評価の項目で、日本語はわからんでもないけど フランス人が厳しいのかひどい評価になってる また103BだとMGSM(多言語数学ベンチ)で 8.8%の低下だけど 35Bだと 13.1%だから体感は酷い事になりそうだ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/92
93: 名無しさん@ピンキー (ワッチョイ 43e4-qc6l) [sage] 2025/05/13(火) 14:22:43.53 ID:TJQtoGRS0 コンテキストウィンドウのサイズでも結構性能変わるらしいね 4kが性能良くて大きくなるほど劣化するとか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/93
94: 名無しさん@ピンキー (ワッチョイ c324-kIO2) [sage] 2025/05/13(火) 14:38:20.67 ID:aVxKBY3K0 じゃあローカルではコンテキスト長は諦めてcontext shiftやauthor's noteで工夫して対処するのがいいのか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/94
95: 名無しさん@ピンキー (ワッチョイ 7f7e-fS5K) [sage] 2025/05/13(火) 14:58:49.37 ID:cTHuCwdA0 >>93 これはコンテキストウィンドウというより、コンテキストにどれだけ突っ込むかが問題で、設定でどれだけウィンドウを広げても実際にうまく扱えるのはせいぜい4K程度(というモデルが多い)、って話なんじゃないかな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/95
96: 名無しさん@ピンキー (ワッチョイ 5335-9L8h) [sage] 2025/05/13(火) 15:17:56.57 ID:6Egnc5Wq0 ローカルLLMに渡すキャラ設定やルールのことならオンライン用の1/10くらいにしないと脱線するわ体感やけど http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/96
97: 名無しさん@ピンキー (ワッチョイ bf35-6cIy) [sage] 2025/05/13(火) 15:20:52.29 ID:UKC8ykUW0 >>90 違う 今までもvision対応していたが、コマンドラインの場合、 普通のLLMを使うときは "llama-simple -m モデル名 -p プロンプト" VLMを使うときは "llama-llava-cli -m モデル名 --mmproj mprojモデル --image 画像 -p プロンプト" のように違うコマンドで対応していた 今回対応したのはllama.cpp標準のWebUIで使う場合("llama-server -m モデル名 ") 今までWebUIで使うときはブラウザから文字しか入力できなかったんだけど、今回の アップデートで画像を入力できるようになった ちなみに内部でllama.cppを使用しているkoboldcppのWebUIでは前から画像入力に対応している http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/97
98: 名無しさん@ピンキー (ワッチョイ efcc-7OJS) [sage] 2025/05/13(火) 19:58:45.45 ID:fD2YVls40 じゃああんまり大した事ないな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/98
99: 名無しさん@ピンキー (ワッチョイ 53e1-K+3N) [sage] 2025/05/13(火) 20:37:06.43 ID:7fg4ZBO+0 IntelのGPUが24GB搭載なんちゃうかという話が出とるね、ComputexTaipeiが楽しみやわ。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/99
100: 名無しさん@ピンキー (ワッチョイ 3fec-9L8h) [sage] 2025/05/13(火) 20:37:06.85 ID:O2T+dFUm0 コンテキスト長が伸びれば伸びるほど性能下がるのは体感通りだな 例えばgemini 2.5 proだと10万トークンまではほぼ劣化なし、20万までは性能やレスポンス低下が見えるけどまあ使える、20万以降はハルシネーションや現在のタスクと過去のタスクの混乱が増えてまともに使えないって感じ ローカルの微調整モデルだと学習時のコンテキスト長が短い(大体4096以下)だからより顕著やろしな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/100
101: 名無しさん@ピンキー (ワッチョイ cfa9-wTYv) [sage] 2025/05/13(火) 21:11:35.45 ID:/+QPsiaf0 IntelハイエンドGPU持ってないし GPUそのままにVRAMマシマシラインナップとか全然やれると思うんだよな・・・ GDDR6でいいから30万くらいで128GB版とか そういうラインナップそろえだしたらソフト側の対応は勝手にみんながやってくれるだろうし Intelやってくれへんかなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/101
102: 名無しさん@ピンキー (ワッチョイ 53e1-K+3N) [sage] 2025/05/13(火) 22:34:58.52 ID:7fg4ZBO+0 なんかredditよんどると今もうllama.cppのVulkan対応で割と使える感じみたいやで。 https://old.reddit.com/r/LocalLLaMA/comments/1kjb9zs/using_llamacppvulkan_on_an_amd_gpu_you_can/ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/102
103: 名無しさん@ピンキー (ワッチョイ 737a-KB/z) [sage] 2025/05/13(火) 23:13:56.48 ID:2FHCa9bh0 コンテキスト長のベンチマークはfiction live benchかeqbenchは参考になると思うで nvidiaのRULERもあるけど古い情報で更新止まってる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/103
104: 名無しさん@ピンキー (ワッチョイ 7399-KvkU) [] 2025/05/14(水) 19:44:16.14 ID:Zo1jp2G/0 今ってユニファイドメモリじゃないPCはCPUやNPUで動かしてRAMで動かしてるの? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/104
105: 名無しさん@ピンキー (ワッチョイ 53ce-9L8h) [sage] 2025/05/15(木) 02:18:09.89 ID:c4xck2YD0 intelはB580x2+48GBか。 B580にチップ間接続用のポートとかあるとは思えないから、 たぶんPCIeブリッジで繋いでるだけだろうな。 それでも48GBはかなり良い。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/105
106: 名無しさん@ピンキー (ワッチョイ 1378-M0vV) [sage] 2025/05/15(木) 02:26:02.38 ID:h4dcgYJm0 インテルじゃないボードベンダー産ってのがいいね これがアリならまた別のベンダーがもっとVRAMマシマシのを出してくる可能性もある http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/106
107: 名無しさん@ピンキー (ワッチョイ efa4-aBcW) [sage] 2025/05/15(木) 04:46:14.23 ID:O2T4jsZf0 4090の96Gができたんだ 終売した4090じゃなくB580なら もっと手軽にできそうだし欲しい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/107
108: 名無しさん@ピンキー (ワッチョイ 5389-9L8h) [sage] 2025/05/15(木) 20:12:31.82 ID:HU+ywqaX0 Silly Tavernでキャラ設定を1500tokens記述してもうまくいかないのはこのためか Content Lengthは受付可能な長さであって理解している長さではないとは…… http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/108
109: 名無しさん@ピンキー (ワッチョイ cf20-/WPO) [] 2025/05/15(木) 21:35:05.54 ID:s6ZPhXWD0 ローカルで今のGeminiくらいのレベルの動かせたら最高なんやけどなあ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/109
110: 名無しさん@ピンキー (ワッチョイ ff49-hXBp) [sage] 2025/05/15(木) 23:22:47.83 ID:11aQDTlc0 2年くらいしたらローカルもそれくらいになってるのでは オープンモデルの成長はほぼ中国頼みだが http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/110
111: 名無しさん@ピンキー (ワッチョイ a3f0-LVTp) [sage] 2025/05/16(金) 01:02:22.93 ID:zPRIPccK0 コンテキストサイズが大きくても知ってる奴には大して喜ばれないのがそれやな どうせコンテキスト増えたらまともに動かんの知ってるから http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/111
112: 名無しさん@ピンキー (ワッチョイ cf7a-pbnj) [] 2025/05/16(金) 01:21:23.76 ID:KWeVTs2u0 vRAM16GBぐらいでAIのべりすとレベルが動いてくれたらかなり満足する気がする あいつオーパーツすぎんだろ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/112
113: 名無しさん@ピンキー (ワッチョイ 737a-KB/z) [sage] 2025/05/16(金) 02:05:19.96 ID:YAfs24yh0 AIのべりすとって今そんなに強いんだ 個人的にはgemini 2.5がオーパーツかな flashレベルが32Bくらいに収まってくれたらなぁ… http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/113
114: 名無しさん@ピンキー (ワッチョイ cf7a-pbnj) [] 2025/05/16(金) 02:45:45.21 ID:KWeVTs2u0 今というか数年前のAIのべりすとが凄いなって話、いまだ進化してるんだろうか あそこまで日本語の文章紡げてなおかつどっかの汎用モデルそのまみ動かしてるとかじゃないから日本語圏のネタとかが通じること多いし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/114
115: 名無しさん@ピンキー (ワッチョイ 4387-9L8h) [sage] 2025/05/16(金) 05:05:22.21 ID:NDKGOZfP0 intelマザーってx16スロットをx4x4x4x4に分割したかったらXeonからになるのね・・・ 今あるA770-16GB2枚をさらに増やすためにリグフレームやら諸々そろえてうっきうきで組んでたら、 中古で買ったz690マザーがx8x8分割しか出来なかったわ。 AMDの方はB450とかでもx4x4x4x4分割設定あったから普通に出来るもんだと思ってた。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/115
116: 名無しさん@ピンキー (ワッチョイ ff49-hXBp) [sage] 2025/05/16(金) 05:09:26.39 ID:J3Y9aGgt0 AIのべりすとは今は推論モデルになってるらしい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/116
117: 名無しさん@ピンキー (ワッチョイ 3332-KB/z) [sage] 2025/05/16(金) 06:57:58.87 ID:1KwNjVLM0 12Bぐらいのモデル全然増えんな Lumimaid-Magnum-v4-12Bももう5か月前やで http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/117
118: 名無しさん@ピンキー (ワッチョイ 53f4-DYsT) [sage] 2025/05/16(金) 15:15:51.24 ID:pxehtX/h0 >>115 それってPCIe x16をM.2 x4のボードに変換してM.2をPCIe x4に変換してグラボ繋げる……でええんかな? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/118
119: 名無しさん@ピンキー (ワッチョイ 3fec-9L8h) [sage] 2025/05/16(金) 17:05:13.56 ID:X0xY2ZKE0 >>117 gemma3 12b qwen3 14bが出てきてるからもう少ししたら色々とファインチューニングモデル出てくると思うよ ベースモデルから検閲厳しいからこのスレの使い方的には微妙だろうけど http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/119
120: 名無しさん@ピンキー (ワッチョイ 33f5-qHkk) [sage] 2025/05/16(金) 17:08:08.84 ID:LVZ9H2Vs0 >>118 アリクエにOCULinkx4に変換できるボード売ってた 1枚買ってある(´・ω・`) http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/120
121: 名無しさん@ピンキー (ワッチョイ 139c-9L8h) [sage] 2025/05/16(金) 17:16:01.05 ID:6IuTlWlX0 >>118 x16をoculinkx4に変換したりU.2x4に変換したりする。 今回使ったのはU.2に変換する奴。 >>120 そういうのそういうの。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/121
122: 名無しさん@ピンキー (ブーイモ MM5f-DYsT) [sage] 2025/05/16(金) 19:57:41.23 ID:J5q06EDjM OCULinkか成る程 試してみるか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/122
123: 名無しさん@ピンキー (ワッチョイ 1444-G97A) [sage] 2025/05/17(土) 01:34:29.48 ID:lRU6XnJq0 Mistralが最近小さめのモデル出さないからなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/123
124: 名無しさん@ピンキー (ワッチョイ c0a9-dAft) [sage] 2025/05/17(土) 05:18:37.87 ID:KGLngktH0 intel arc b770が16GBで出るかもって噂出てて、 さらにボードベンダーからb580を2個使った48GBのカードが出てくるって噂と合わせると 将来的にb770を2個使った64GBのモデルが出てきてもおかしくない・・・? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/124
125: 名無しさん@ピンキー (ワッチョイ be33-heYV) [sage] 2025/05/17(土) 08:27:38.26 ID:IODRfGV/0 むしろ中国がLLMに特化した ミニPC出してきてもおかしくない…… 4090魔改造するならそういうのも頼むで……! 禁輸くらっとらん素材なら潤沢にできるやろ頼むわ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/125
126: 名無しさん@ピンキー (ワッチョイ da7a-xkjl) [sage] 2025/05/17(土) 08:52:36.43 ID:sObGMPqJ0 アメリカが今の半導体規制を撤廃する代わりにファーウェイ製のチップを使うなって言い出してるんよね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/126
127: 名無しさん@ピンキー (ワッチョイ 1ed2-1wA0) [sage] 2025/05/17(土) 09:28:16.56 ID:GWjV3KzO0 世界に勢力が2個以上あって対立してるのは良いことかもな 競争でどんどん進歩していく http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/127
128: 名無しさん@ピンキー (ワッチョイ edbe-eIEy) [] 2025/05/17(土) 10:46:50.48 ID:1ZXEfXBW0 AI半導体に関してはAMDとIntelが期待外れだったってのもある Huaweiは自社チップ向けにTensorFlowやPyTorchのバックエンドを作る位の技術力はあるし、プロセスが数年遅れててもデータセンターならゴリ押しできる AI研究者の半数以上は中国人って調査もあし、当のプロセス進化も足踏み状態 ここはみんなで協力して乗り切るのが人類全体利益になると思うんだけどね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/128
129: 名無しさん@ピンキー (JP 0H07-heYV) [] 2025/05/17(土) 14:20:31.96 ID:eir/EweWH CUDAがなぁ(´・ω・`) http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/129
130: 名無しさん@ピンキー (ワッチョイ 00bc-mR1Y) [] 2025/05/17(土) 14:25:14.32 ID:jvzrCaRm0 LLMモデルに検閲無しのファインチューニングしたいんだけど既存のNSFWファインチューニングニキらは一体どこのデータセット使ってるんや… まさか自分で1から準備するとかないよね? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/130
131: 名無しさん@ピンキー (ワッチョイ e6a7-fjSQ) [sage] 2025/05/17(土) 14:57:20.90 ID:slMuR/7R0 >>130 readmeに書いてあったりするから見てみ ちな日本語だとaratako氏のデータが唯一だと思う http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/131
132: 名無しさん@ピンキー (ワッチョイ 00bc-mR1Y) [] 2025/05/17(土) 15:32:18.86 ID:jvzrCaRm0 >>131 ありがてぇ… http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/132
133: 名無しさん@ピンキー (ワッチョイ da7a-xkjl) [sage] 2025/05/17(土) 16:02:40.60 ID:sObGMPqJ0 >>130 berghofの人が使ってるエロ同人のお約束に精通した隠語マシマシドスケベデータセット欲しい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/133
134: 名無しさん@ピンキー (ワッチョイ 00bc-mR1Y) [] 2025/05/17(土) 16:26:04.09 ID:jvzrCaRm0 >>133 あれ傑作よなワイも低俗で上質なデータセット欲しい 無駄に理屈的(小説的)じゃない言い回しが臨場感あってよい ハートマーク多用する低俗な言い回しも合ってる 漫画の絡み中の短いセリフとかを学習させまくってるのかな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/134
135: 名無しさん@ピンキー (ワッチョイ da7a-xkjl) [sage] 2025/05/17(土) 16:37:00.90 ID:sObGMPqJ0 多分そうだと思う 小説から学習させたのがNSFWでエロ同人から学習させたのがERPなんじゃないかな 喘ぎ声のバリエーションが豊富で他のモデルみたいに出し惜しみせず喘ぎまくるし しかもアナルを責めた時だけおほっ♡とか、んおおっ!?って言い出すのほんと解像度高くて笑う http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/135
136: 名無しさん@ピンキー (ワッチョイ be75-WIAZ) [] 2025/05/17(土) 17:13:20.99 ID:w9ZW+JGn0 20万くらいでgpt4クラスが動くようにしてくれ チューニングできるなら3.5でもいいけど http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/136
137: 名無しさん@ピンキー (ワッチョイ b16a-RrWD) [sage] 2025/05/17(土) 19:31:57.38 ID:F7HRHJWX0 3.5レベルならもうローカルで動かせてるんでは?🤔 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/137
138: 名無しさん@ピンキー (ワッチョイ 9849-10PZ) [sage] 2025/05/17(土) 20:04:49.19 ID:1L6mTa660 Gemma3がもうGPT4よりは賢くないか? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/138
139: 名無しさん@ピンキー (ワッチョイ a0b5-heYV) [sage] 2025/05/18(日) 01:23:11.92 ID:vEw2uS6g0 >>133 >>134 データセットはHuggingFaceにJSONで公開してるやろ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/139
140: 名無しさん@ピンキー (ワッチョイ aa26-xkjl) [sage] 2025/05/18(日) 01:32:20.69 ID:ZZpG2jbp0 >>139 小説の方しか見当たらんや http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/140
141: 名無しさん@ピンキー (ワッチョイ 9b40-fjSQ) [sage] 2025/05/18(日) 01:35:42.60 ID:17nfmmHD0 とりあえずリグ組めたからサブPCからA770外してリグに組み込んだらA770認識しなくて草 草じゃないが http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/141
142: 名無しさん@ピンキー (ワッチョイ bee2-u0sY) [] 2025/05/18(日) 12:07:11.17 ID:VSENzPC/0 w http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/142
143: 名無しさん@ピンキー (ワッチョイ c0a9-/IyX) [sage] 2025/05/18(日) 13:23:32.71 ID:Ta/N+pvQ0 縺上▲縺輔=笙・ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/143
144: 名無しさん@ピンキー (ワッチョイ e6f0-fjSQ) [] 2025/05/18(日) 23:56:08.64 ID:7V5PApoN0 「リグ続き。 A770に続いて手持ちのRTX2070も認識せず。 押し入れから引っ張り出してきたGT710とGTXX660は問題なく動作する。 GT710とGTX660を同時にPCIe x16に接続しても両方認識する。 ライザーカードのPCIe電源ライン用にSATA電源を接続しているのだが、 電源供給が足りないのだろうか。 電源供給量が多いライザーカードを探してみないと。 見つかるかな?」 この文章をバイオハザードの研究員の日記風に改変してください。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/144
145: 名無しさん@ピンキー (ワッチョイ 8266-pxlb) [sage] 2025/05/19(月) 01:03:41.72 ID:zz1AHgPa0 申し訳ありませんが、そのリクエストにはお答えできません。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/145
146: 名無しさん@ピンキー (ワッチョイ 00a0-dAft) [sage] 2025/05/19(月) 07:03:31.88 ID:Du+41SFG0 そもそもの電源が強くないとな1000W電源は用意した方がいい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/146
147: 名無しさん@ピンキー (ワッチョイ cd08-eKVg) [] 2025/05/19(月) 15:16:19.08 ID:J3NCIUm50 kobold AIってLoRA使える? インストールして起動してみたものの使い方わかんねぇ 検索しても情報少ないのな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/147
148: 名無しさん@ピンキー (ワッチョイ c0a9-dAft) [sage] 2025/05/19(月) 21:24:16.25 ID:A7Cqjv+y0 DGX Spark、台湾系のメーカーが大体扱ってくれるみたいだから入手性は良さそう https://pc.watch.impress.co.jp/docs/news/event/2015129.html 256GB版出してくれへんかなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/148
149: 名無しさん@ピンキー (ワッチョイ eaec-fjSQ) [sage] 2025/05/19(月) 21:29:14.79 ID:MumTXT1M0 >>148 DGX sparkはGPUがかなり強い(3090以上)からチャンネル数を倍増して欲しいよね メモリ量も帯域幅も倍になるはずだし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/149
150: 名無しさん@ピンキー (ワッチョイ 2bd9-H4Ie) [sage] 2025/05/19(月) 21:55:53.24 ID:0QYGS3Jw0 >>128 協力どころか現実は規制規制のオンパレードだから中国で盛り上がるのも当然と言えば当然かも http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/150
151: 名無しさん@ピンキー (ワッチョイ eaec-fjSQ) [sage] 2025/05/20(火) 00:23:35.73 ID:hbszdRYX0 intel arc 48GBがマジで売られそう 48GBで1000$以下らしい 帯域幅は456GB/sと狭いけどryxan AI maxよりは実用的かも http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/151
152: 名無しさん@ピンキー (ワッチョイ 007a-jzjh) [] 2025/05/20(火) 00:41:54.88 ID:ft2LOxrW0 google ai studioで全然Androidの仕様とかわかってないのに個人使用では実用レベルのスマホアプリ作れちまった ハルシネーション起こして正しくない文字列で参照してたり、何度手直してもダメな実行順で関数記載しちゃったりとかはあったけど バグ部分の違和感さえ人間が気づければほぼリライト任せる形でここまで作れちゃうの革命すぎる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/152
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 850 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.016s