なんJLLM部 避難所 ★9 (497レス)
上下前次1-新
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
1: 名無しさん@ピンキー 転載ダメ (ワッチョイ fec0-xVEZ) [] 08/23(土)13:52 ID:5lw7ZcNF0(1/10)
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
2chスレ:liveuranus
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
2chスレ:onatech VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
478(1): 名無しさん@ピンキー (スッププ Sd92-0UjF) [sage] 09/26(金)16:22 ID:+QY55fpBd(1/3)
QwenとかのMoEモデルを誰か日本語ファインチューニングしてくれないかな
主力モデルが日本語を捨ててるからレスポンスに謎言語が混ざりすぎる
479(1): 名無しさん@ピンキー (ワッチョイ f227-YdyK) [] 09/26(金)17:23 ID:f/GM/BxQ0(1/2)
>>478
数ヶ月前までRinnaがやってたけどな最近は更新されてないか
480: 名無しさん@ピンキー (ドコグロ MMca-YdyK) [] 09/26(金)17:23 ID:vox1d4RkM(1)
日本語はGLMが優秀だぞ
481: 名無しさん@ピンキー (スッププ Sd92-0UjF) [sage] 09/26(金)17:30 ID:+QY55fpBd(2/3)
>>479
rinnaはdenseモデルしかFT実績がないな
MoEのFTは海外ではチラホラ見かけるが技術的に壁があるのかも知らん
482(1): 名無しさん@ピンキー (ワッチョイ 36a0-vRSx) [sage] 09/26(金)20:36 ID:LgalYGqC0(3/3)
クソ真面目な話をすると仕事で売上予測とかやりたい場合にLLMのモデルって使うの?
483: 名無しさん@ピンキー (ワッチョイ efd8-gFLl) [] 09/26(金)20:43 ID:3B4su3U20(1)
予測はLLM使わんでも線形回帰でええやん
484: 名無しさん@ピンキー (スッププ Sd92-0UjF) [sage] 09/26(金)20:46 ID:+QY55fpBd(3/3)
>>482
アフィカス記事を量産するためにLLMが使われている
485: 名無しさん@ピンキー (ワッチョイ bf38-/zn3) [] 09/26(金)20:47 ID:EP60vsIo0(1)
詐欺メールもだな
486: 名無しさん@ピンキー (ワッチョイ be1c-XBLx) [sage] 09/26(金)21:31 ID:ZBmkLOHp0(1/2)
予測はboosting木とかの古典的機械学習とかDLのクラス分類とかじゃろ
メディア通すとまとめてAIやが
487: 名無しさん@ピンキー (オッペケ Srd7-l4qr) [] 09/26(金)22:16 ID:UNdtCLMYr(1)
ROCm 6.4.4リリースでようやっとRyzen AI Max+ 395.がサポートされたみたいね
これからローカルLLMて進展が出てくるの期待だわ
488: 名無しさん@ピンキー (ワッチョイ f227-YdyK) [] 09/26(金)23:14 ID:f/GM/BxQ0(2/2)
llama.cppでもうすぐQwen3 Nextがサポートされそう
489: 名無しさん@ピンキー (ワッチョイ c78f-gFLl) [sage] 09/26(金)23:17 ID:Q0uc5QEE0(1)
朗報やね。っていうか対応させるまで数ヶ月かかりそうとか言ってたはずなのに、技術者さんたち凄すぎんか
490: 名無しさん@ピンキー (ワッチョイ b6a9-HCKT) [sage] 09/26(金)23:22 ID:IPM/731m0(1)
nextの時点でだいぶ性能いいから3.5楽しみなんだよなぁ
そういう意味でnext対応しといてくれると3.5出たときに対応スムーズに行きそうやね
491: 名無しさん@ピンキー (ワッチョイ a36a-3wxO) [] 09/26(金)23:31 ID:Gt003hUg0(1)
jpxがなんか予測に使ってたな
492: 名無しさん@ピンキー (ワッチョイ be9f-XBLx) [sage] 09/26(金)23:35 ID:ZBmkLOHp0(2/2)
Qwenのthinkingモデルはローカルでこれ使っていいのかって性能で驚くけど長考癖が不満やなあ
493: 名無しさん@ピンキー (ワッチョイ 4b0f-mOlO) [sage] 09/27(土)00:43 ID:FxwLTfep0(1)
日本語エロ性能の更新が無くてすっかり真面目スレになってしまっているのが悲しい😭
494: 名無しさん@ピンキー (ワッチョイ 1fc3-dRFZ) [sage] 09/27(土)02:48 ID:siCyTYpR0(1)
https://github.com/MoonshotAI/K2-Vendor-Verfier
kimi K2がホスティングサービス毎のツール呼び出し成功率測ってたけどfp8とfp4で30%以上成功率下がるらしい
もしかして世間で言われてる以上に4bit量子化による性能低下って大きいのか?
495: 名無しさん@ピンキー (ワッチョイ 0fa9-k09M) [sage] 09/27(土)07:51 ID:0L5nCDDl0(1)
4bitは結構性能下がるよ
あとtool coolingはコーディングみたいに1文字間違ったら動かない事が多いから量子化には元々厳しいと思うし
だからはじめから4bitしか公開されてないgptossがあの性能出てるのがすごい
496: 名無しさん@ピンキー (ワッチョイ 7b8a-mDdK) [] 09/27(土)14:01 ID:wwGJW0Qw0(1)
冷やすの?
497: 名無しさん@ピンキー (ワッチョイ 8bc7-2yqi) [] 09/27(土)23:25 ID:LUN7vlE20(1)
>>450
とりあえずclaudeのmaxプランに加入するとええで
レートリミット限界まで使わんと損した気になるから開発も学習も捗る
mcpがチャット版でも使えるのも大きい
特に今見てるブラウザのタブを読めるようにするmcpを使うと「今見てるこれって〜」みたいな質問ができるからドキュメント漁りがメッチャ楽
まぁ何より頭がええんやけどな
よく言われるコンテキスト圧縮問題もserena使えばそんなに問題にならん
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.015s