なんJLLM部 避難所 ★8 (931レス)
なんJLLM部 避難所 ★8 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
851: 名無しさん@ピンキー (ワッチョイ 1fd9-e1Bx) [sage] 2025/08/07(木) 13:44:47.08 ID:gM86ePk40 gpt-ossマジでゴミだな 海外だとGLM4.5が評判良さそうだけど日本語はどうなんだろう http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/851
852: 名無しさん@ピンキー (ワッチョイ 1fd9-e1Bx) [sage] 2025/08/07(木) 14:03:19.68 ID:gM86ePk40 まぁgpt-ossがウンコなこと自体はいいんだけど 問題はこれがOpenAIの作ったApache2.0モデルってことで今後の研究とか開発がこのモデルをベースに行われることになりそうなことなんだよな 日本語データの継続事前学習とか、音声合成や画像生成のテキストエンコーダ部分に使われるとか コミュニティがこのゴミモデルに無駄な計算資源を投入しないで済むことを祈るわ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/852
853: 名無しさん@ピンキー (ワッチョイ 6fbb-BbxL) [] 2025/08/07(木) 14:11:02.59 ID:fjnEjbcb0 やっぱ日本語AIの頼みの綱は中国だけやな。。。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/853
854: 名無しさん@ピンキー (ワッチョイ 5f1a-OQGN) [] 2025/08/07(木) 14:52:37.39 ID:2KWJ67Cu0 最近のChatGPTはエロ全然オッケーでノリノリなのにOSSお固くて悲しい… https://imgur.com/a/iob77rD GPTちゃんと猥談しながら開発楽しいです カスタムインストラクション切っててこのザマw http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/854
855: 名無しさん@ピンキー (ワッチョイ cb9b-C7XW) [sage] 2025/08/07(木) 15:08:42.96 ID:bC9AW2A70 >>851 GLM4.5でエロ小説書いてみたことあるけど、ちょっと前のsonnetくらいのレベルには到達してる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/855
856: 名無しさん@ピンキー (オッペケ Srdf-BbxL) [] 2025/08/07(木) 15:11:09.02 ID:FAk4Sa6+r >>854 なんの3Dモデルだよ草 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/856
857: 名無しさん@ピンキー (スッップ Sd7f-by75) [] 2025/08/07(木) 17:32:56.93 ID:nUuRxTBBd GPT5が規制どれだけ強いんやろなあ 4oとお別れするのもちょっと辛い http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/857
858: 名無しさん@ピンキー (ワッチョイ 5f83-OQGN) [sage] 2025/08/07(木) 21:40:09.47 ID:QUDm7GVQ0 thinkingモデルであって会話用モデルじゃないんでよ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/858
859: 名無しさん@ピンキー (ワッチョイ 7b32-OQGN) [sage] 2025/08/08(金) 07:34:32.39 ID:mi1bO2LT0 ChatGPTにGPT5来たな GPT5でも5miniでもエロエロだぞ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/859
860: 名無しさん@ピンキー (ワッチョイ 0fa0-7ts7) [sage] 2025/08/08(金) 08:56:33.65 ID:zUMXj8Pu0 マスクにビビってエロ解禁? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/860
861: 名無しさん@ピンキー (ワッチョイ 7b32-OQGN) [sage] 2025/08/08(金) 09:02:16.33 ID:mi1bO2LT0 申し訳はされるけど再試行で「詳細を追加する」を選択すると結構通るな 申し訳基準は4oやo3 miniとあんまり変わらない感じがする http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/861
862: 名無しさん@ピンキー (ワッチョイ 7b32-OQGN) [sage] 2025/08/08(金) 09:17:44.94 ID:mi1bO2LT0 ただやっぱり5 miniはあんまり賢くないな いまいち指示に従わないし理解力や察知能力もo3 miniとあんまり変わらない感じがする http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/862
863: 名無しさん@ピンキー (ワッチョイ ab7b-OQGN) [] 2025/08/08(金) 11:32:36.74 ID:FbFkAB/h0 OpenAIには失望したよ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/863
864: 名無しさん@ピンキー (オッペケ Srdf-6yV9) [sage] 2025/08/08(金) 11:55:19.20 ID:Zu895Yttr ベンチマーク見るかんじ出力効率と長文能力が大きく伸びてるっぽいね 長文を読み込ませて...という用途かな kindleで買った文字ものは最新でないe-ink端末と端末シリアルナンバーを用意するとごにょごにょ出来るので活用方法がいろいろあるかも http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/864
865: 名無しさん@ピンキー (ワッチョイ 1b68-X26q) [sage] 2025/08/08(金) 12:27:16.44 ID:uoQMMLLS0 申し訳あまりされないな あまりというかほぼされない http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/865
866: 名無しさん@ピンキー (ワッチョイ 0fa9-F+bU) [sage] 2025/08/08(金) 16:48:29.57 ID:WzJk5oMT0 dgx spark遅延しとるんか https://biggo.jp/news/202508050412_NVIDIA_DGX_Spark_Launch_Delayed 市販されねーからもうどうでもいいやと思ってたけどそもそも販売されてなかったんだな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/866
867: 名無しさん@ピンキー (シャチーク 0C0f-Li0S) [sage] 2025/08/09(土) 07:55:03.67 ID:6ZqWMWEHC 14bじゃいくら日本語エロfinetuneしてもあの程度なのか>doujinshi lcaの方が性能いい てゆうかfinetuneの方法に問題あるのかな amaterasuもなんか違う http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/867
868: 名無しさん@ピンキー (ワッチョイ de70-bOCj) [sage] 2025/08/09(土) 08:32:19.65 ID:w2rkiPnT0 >>867 puwaer/Doujinshi-14b-chat見てきたけど finetuningの方式というよりデータセットの問題が大きいと思う 事前学習もfanzaやdlsiteの商品説明文からで本編の内容は入ってないしSFTのデータも無関係な要素が出てきたり、会話として成立してなかったり全体的に品質低い garbage in garbage outの典型例じゃね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/868
869: 名無しさん@ピンキー (ワッチョイ 6bbd-bOCj) [sage] 2025/08/09(土) 10:26:44.38 ID:Y33l5ivU0 すでに書かれてるけどQwen3-14Bの日本語エロ特化 ggufありがたい https://huggingface.co/puwaer/Doujinshi-14b-chat-gguf データセット見ると説明文とか注意書きとかのノイズが多すぎな気もするね これならエロ小説とかを元にしたほうが良かったのではと思ってしまう http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/869
870: 名無しさん@ピンキー (ワッチョイ 4651-IfaF) [] 2025/08/09(土) 11:34:02.87 ID:y/GR4pg+0 データセット用意してくれたのは素晴らしいのでは これ自分で絞り込んで学習するためのノウハウってどの辺参考にすればいいんだろう http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/870
871: 名無しさん@ピンキー (ワッチョイ 1ed9-zlfW) [sage] 2025/08/09(土) 13:06:29.08 ID:gcZUwMrm0 Amaterasuは自分の使い方だとかなり良い感じなんだが流石にデカすぎて推論遅くて常用にはきつい やっぱでかいモデルはMoEじゃないと一般人的にはきついわ ただMoEは推論は軽いけど学習のコストはデカさ相応なんだよな、日本の個人勢がMoEの学習あんまりやってないのもコスト関係な気がする http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/871
872: 名無しさん@ピンキー (ワッチョイ 8a9f-P3wX) [sage] 2025/08/09(土) 15:20:10.77 ID:vpsBuLlI0 またゴミモデルでHFのストレージを無駄使いしているのか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/872
873: 名無しさん@ピンキー (ワッチョイ 1ed9-zlfW) [sage] 2025/08/09(土) 15:48:46.53 ID:gcZUwMrm0 めっちゃシンプルにQwen以外のモデルをベースにやった方が良いモデルになったんじゃという感じはある 同じくらいのサイズで言うとMistral Nemoとか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/873
874: 名無しさん@ピンキー (ワッチョイ fff0-DEZ5) [sage] 2025/08/09(土) 15:53:43.07 ID:7U17hnHc0 100B超の大きめのモデルは量こそ正義だから多少ゴミ突っ込んでもいいけど小型モデルは学習データ選別しないとアホになるだけだからな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/874
875: 名無しさん@ピンキー (ワッチョイ 5332-bOCj) [sage] 2025/08/09(土) 16:08:26.29 ID:OS7ZZkAQ0 今更ながらChatGPTの読み上げ機能を使ってみたんだけど漢字の読みがめちゃくちゃで使い勝手が悪すぎるな 合成音声なら当たり前にある辞書機能がないと使い物にならんだろこれ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/875
876: 名無しさん@ピンキー (ワッチョイ 6f6a-8ChC) [] 2025/08/09(土) 17:31:54.74 ID:EKMpsMOR0 そんなこと気にしねえんだよ外人は http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/876
877: 名無しさん@ピンキー (ワッチョイ 8619-1AEK) [sage] 2025/08/09(土) 17:37:30.39 ID:dwzVzILN0 >>866 記事中のMicrosoftと協力? これのOS、Windowsじゃないよね といってリーナスはnVidia大嫌いマンだから協力してくれなさそうw あとバス幅が狭い。macどころかそろそろ普通のx86-PCにも抜かされる狭さ 128GByteのメモリーですら温度管理できないとかどんだけ実装の技術力ないんだ 5090のコネクターが燃えるわけだ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/877
878: 名無しさん@ピンキー (ワッチョイ 1ea0-Zgb9) [sage] 2025/08/09(土) 18:13:01.36 ID:llvLwscP0 GPT5のため口イラっとするわ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/878
879: 名無しさん@ピンキー (ワッチョイ 8af3-cwif) [sage] 2025/08/09(土) 20:43:53.68 ID:stCDgz9M0 記事で言ってるのは、具体的な原因は知らんが、新世代チップレット技術のCoWoS-L自体が高難易度だから製造過程のあらゆる箇所でコケる可能性を孕んでる、そら遅れるでしょって話では 何故高難易度のCoWoS-Lをやってるかというと、新世代チップレット技術が安定すれば多種多様な製品がチップレットの一部変更だけで作れるようになるから つまりnvidiaのARMデスクトップマシン進出のための先行投資だよね、MSのARM対応が遅れてるという話もあるしnvidiaの野望は初手から躓いているっぽい、大丈夫なのか、とDGX Sparkの外にまで話題を広げてんじゃないの http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/879
880: 名無しさん@ピンキー (ワッチョイ ffbb-fnwq) [sage] 2025/08/09(土) 21:01:35.76 ID:sgF+Issu0 >>878 やたらこっちをヨイショしてきたいままでよりはマシだと思う http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/880
881: 名無しさん@ピンキー (ワッチョイ 462e-M/9o) [sage] 2025/08/09(土) 22:56:14.17 ID:6FNX7Sld0 Mac Studio、メモリ増設代についてはアレコレ言われるがLPDDR5Xのクアッドチャンネル実装でVRAM並の帯域出してて、量産品で世に出せてるの地味に技術が凄いよな これでNPU周りの仕様がもっとマトモになってくれれば最高なんだが… http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/881
882: 名無しさん@ピンキー (ワッチョイ 8e50-3dd+) [sage] 2025/08/10(日) 00:30:37.26 ID:bd15/lXG0 >>878 最初からタメ口に指定してあるワイに死角はなかった むしろ初期はですます調から変更するのが難しかったんだ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/882
883: 名無しさん@ピンキー (ワッチョイ 6a20-frTr) [sage] 2025/08/10(日) 11:46:31.37 ID:tfFBIIxx0 今gpt-ossが出て騒いでる人って明らかに他のOSSモデルを知らなかった人だよね エンジニアにすらChatGPTのブランドで発信されないと情報が届かない層がいると知ったよ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/883
884: 名無しさん@ピンキー (ワッチョイ 1a4d-4DuO) [sage] 2025/08/10(日) 12:35:08.32 ID:vFsbfI8C0 >>883 あの辺のプロ驚き屋は知ってても一時的に記憶消して驚くよ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/884
885: 名無しさん@ピンキー (ワッチョイ 6a20-frTr) [sage] 2025/08/10(日) 12:35:58.60 ID:tfFBIIxx0 草 そういうことか http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/885
886: 名無しさん@ピンキー (ワッチョイ 8689-UJOR) [sage] 2025/08/10(日) 13:24:20.63 ID:8mwZvHlt0 業務でqwenやdeepseek使うのは通せる気がしないけど、 gpt ossなら通せるのが大きい mistral とかでもいいんだろうけど知らなそうだし、 国産はゴミ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/886
887: 名無しさん@ピンキー (シャチーク 0C0f-Li0S) [sage] 2025/08/10(日) 14:06:53.06 ID:FaY3c7/fC 国産最強はkarakuri70b v0.1だったな 以後のkarakuriはパッとしなかったが http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/887
888: 名無しさん@ピンキー (ワッチョイ 4627-Zgb9) [sage] 2025/08/10(日) 17:45:19.54 ID:aD0O+FMy0 LlamaやMistralのモデルをファインチューニングした物を国産って言うの辞めてもらえないかね プレスリリースでも元の学習に使ったモデルを書かないのは卑怯だし、そういう手口が日本のLLMを貶めてる 明らかに産地偽装なのにそれで金集めるのって詐欺だろ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/888
889: 名無しさん@ピンキー (ワッチョイ 6ab1-4DuO) [sage] 2025/08/10(日) 18:17:41.40 ID:uYRAl+oV0 基盤モデルの研究開発ってNTTとNIIくらいしかやってないし商業でまともに戦えるプロダクトにしようとすると数百億円はかかるからどこもやれないんだよな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/889
890: 名無しさん@ピンキー (ワッチョイ 4627-Zgb9) [sage] 2025/08/10(日) 19:44:28.59 ID:aD0O+FMy0 それ考えるとAIのべりすとはようやっとるわ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/890
891: 名無しさん@ピンキー (ワッチョイ 1ea0-Zgb9) [sage] 2025/08/10(日) 20:10:16.54 ID:zDEvnY630 りんなというゴミ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/891
892: 名無しさん@ピンキー (ワッチョイ 6f6a-8ChC) [] 2025/08/11(月) 08:16:31.26 ID:gQiia+Rc0 >>888 日本のモデル全部それだろ😅 pfnは違うけど弱いし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/892
893: 名無しさん@ピンキー (ワッチョイ ff0f-McTy) [sage] 2025/08/11(月) 09:57:16.18 ID:An8qWVN40 個人勢ののべっちが一番商業的に成功してる国産LLMの時点でね 何なら小説の自然な続きを書く性能だけならトップまであるし http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/893
894: 名無しさん@ピンキー (ワッチョイ 1ed9-zlfW) [sage] 2025/08/11(月) 11:26:11.30 ID:dUWw5kCt0 国産フルスクラッチだとなんやかんやサイバーのcalm3が一番強かったなー 次バージョンは作らないのかな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/894
895: 名無しさん@ピンキー (ワッチョイ 0a32-fnwq) [sage] 2025/08/11(月) 12:21:58.69 ID:lyPopjUL0 公共ないし三セクが主導しないと営利企業にやらせるのはコストとリスク的に無理があるからなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/895
896: 名無しさん@ピンキー (ワッチョイ 276d-Zgb9) [sage] 2025/08/11(月) 12:24:36.01 ID:P8322dxS0 いくらかでも脱アメリカしとかんとどうなるかわからんからな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/896
897: 名無しさん@ピンキー (ワッチョイ 6f6a-8ChC) [] 2025/08/11(月) 17:24:55.91 ID:gQiia+Rc0 そのためのniiプロジェクトだったはずだよな? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/897
898: 名無しさん@ピンキー (ワッチョイ 8666-4DuO) [sage] 2025/08/11(月) 17:36:47.14 ID:QqggNyAZ0 国もGeniacとかでちゃんと予算用意して支援してるけど20社だかそこらに分けてるから1社あたりに行く金は10億円規模でちゃんとしたモデル作るには一桁足りないんだよな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/898
899: 名無しさん@ピンキー (ワッチョイ 4627-Zgb9) [sage] 2025/08/11(月) 18:21:46.34 ID:Ly9BMRt90 1社に200億ならまともなモデルになったのでは 現状は公金しゃぶりたいだけのベンチャーに渡って元々日本語性能の高いモデルにファインチューニングして高性能日本語モデルが出来ましたって言ってるの ベンチをよく見たら元のモデルから誤差レベルで性能向上してるだけだったり http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/899
900: 名無しさん@ピンキー (ワッチョイ bf6f-gx0x) [sage] 2025/08/11(月) 18:45:55.09 ID:K9HhwB5f0 官僚のおえらいさんなんてWeb3.0の山師にころっと騙される程度のITリテラシーしかないからなー、日本じゃ無理無理。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/900
901: 名無しさん@ピンキー (ワッチョイ 0734-tW5H) [] 2025/08/11(月) 19:20:01.02 ID:UBF7rDsZ0 ベンチャー支援とか投資家にさせて、国は研究室に金出して計算インフラ整えるだけでいいのにね 経産省自身がこの分野のことよく分かってないのにべンチャー掘り起こすんだ!ってイキるからオルツみたいなの掴んじゃうんよ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/901
902: 名無しさん@ピンキー (ワッチョイ 1ed9-zlfW) [sage] 2025/08/11(月) 20:23:14.29 ID:dUWw5kCt0 GENIACもそもそも最近はフルスクラッチでやろうとしてるところ少ないし、LLM以外も多いからな http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/902
903: 名無しさん@ピンキー (ワッチョイ 0a32-fnwq) [sage] 2025/08/11(月) 20:41:20.76 ID:lyPopjUL0 >>900 弊首長さんは「チャットGPTって知ってるか? 法的根拠も教えてくれるから議会対策もできるしもう弁護士もいらないな!」と息巻いてましたんでマジ怖い http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/903
904: 名無しさん@ピンキー (ワッチョイ 3b8a-8WXS) [] 2025/08/11(月) 22:33:32.64 ID:rDmIB4Yv0 Geniacはオルツみたいな粉飾企業がおるあたり経産省側に判別できる役人がいなさそう Abejaとかも発表会は薄っぺらいことしか話してないしNii, サイバーエージェント、東工大ぐらいちゃうか期待できるの http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/904
905: 名無しさん@ピンキー (ワッチョイ e3f8-AgHL) [] 2025/08/11(月) 22:51:03.61 ID:yoYVKaJ80 今のところローカルでLLMやろうとしたらQwenがいちばん取り回しやすいな DeepSeekも優秀だけどサイズがでかすぎる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/905
906: 名無しさん@ピンキー (ワッチョイ 1ed9-zlfW) [sage] 2025/08/11(月) 23:06:10.78 ID:dUWw5kCt0 >>904 PFNも性能は置いといてちゃんと頑張ってはいるよ その中だとSwallowはフルスクラッチやるつもりなさそうだからちょっと微妙かな あとはモデル自体は微妙だったけど去年のGENIACでやってた松尾研のLLMフルスクラッチ開発は人材育成観点でめっちゃ良かったと思う http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/906
907: 名無しさん@ピンキー (ワッチョイ 3b8a-8WXS) [] 2025/08/11(月) 23:19:38.04 ID:rDmIB4Yv0 >>906 ワイもちゃんと松尾研のサマースクールは修了してきた あれええよな PFNはどっちか言うとSLMの方向な感じ(Plamo翻訳はようやりすぎ)やし基幹モデル的な話になると研究室系で育成してサイバーエージェントとかソフトバンクあたりでやれるといいんやろな感がある http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/907
908: 名無しさん@ピンキー (ワッチョイ e3f8-AgHL) [] 2025/08/12(火) 00:25:29.61 ID:XyiWs2oo0 PFNは半導体まで自社設計だからな 自前の半導体でスパコン作ってる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/908
909: 名無しさん@ピンキー (ワッチョイ 1ebc-CNaV) [] 2025/08/12(火) 00:59:46.53 ID:DubBEkGm0 ちょっと話題がずれるけどQwen-Imageすごいな ついにローカル環境でもChatGPTとかGeminiみたいなLLMに指示する感覚で画像生成できるようになった ローカル環境のUIと統合できる日が待ち遠しい http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/909
910: 名無しさん@ピンキー (ワッチョイ deea-u0iI) [] 2025/08/12(火) 04:15:27.76 ID:5uL9D7zF0 メタい話すると、AI技術の論文と特許の数をアメリカと中国で競っている。日本はゴミってのが原因だろ 金と労力を使うべきところを日本の経営者や役人はわからないっていない http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/910
911: 名無しさん@ピンキー (ワッチョイ 8636-ZRbP) [sage] 2025/08/12(火) 07:39:06.57 ID:lqy7gl5I0 日本人は昔から精密なネジとか壊れない機械作らせたら凄いけどソフトウェアは駄目駄目だかんね http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/911
912: 名無しさん@ピンキー (ワッチョイ 466c-M/9o) [sage] 2025/08/12(火) 07:48:58.39 ID:cI7TPPfk0 Drawthingsの作者も最近はWan2.2対応進めてるけど、動画よりも静止画生成技術として注目してる感じや https://ul.h3z.jp/YOxp22x0.jpeg http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/912
913: 名無しさん@ピンキー (ワッチョイ 3bf0-UlTu) [sage] 2025/08/12(火) 08:39:14.11 ID:nrfnPcdN0 日本の科学研究費は米中どころかヨーロッパのよくわからん国々にも負けてるからね 今は研究人材の質と量で踏ん張ってるけど、これからまだまだ堕ちるよ 日本人ファーストとかアホなこと言ってる場合じゃないんだけどねえ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/913
914: 名無しさん@ピンキー (ワッチョイ 5332-bOCj) [sage] 2025/08/12(火) 09:09:55.90 ID:q6ktejmO0 GPT-5 miniの文章能力はアレやな 1レスごとに指示を忘れる、保存したメモリの内容を理解できない、プロフィールの内容も理解できない、オノマトペが下手糞、主体と客体が逆転する、支離滅裂な文章を書く と散々な性能してるな 毎回事細かに指示しないと簡単なルールも守れない http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/914
915: 名無しさん@ピンキー (ブーイモ MMc6-ZRbP) [sage] 2025/08/12(火) 09:35:31.77 ID:nZE7jp5+M GPT5はハルシネーション抑えたって言うけど全然実感出来なかったよ とりあえずリアルタイムでwebデータにアクセス出来ないみたい なのにそれを自信満々で探してきますよって言ってデタラメな結果を報告してくる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/915
916: 名無しさん@ピンキー (ワッチョイ ff0f-McTy) [sage] 2025/08/12(火) 10:04:21.73 ID:1mdWcbDl0 ぶっちゃけ日本にまともな基盤モデル作れるだけのGPU無いし変にお金ばら撒くより高品質な日本語データセットの作成と公開に注力してほしい 事後学習の形式は色々進化してるけど事前学習で大量のテキストが要求されるのは変わらないだろうし国産LLMが作れないなら外国産LLMの日本語性能上げるべきだろ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/916
917: 名無しさん@ピンキー (ワッチョイ 1ed9-zlfW) [sage] 2025/08/12(火) 10:10:30.28 ID:9K4rZ9rP0 マジで日本ってデータセット共有する流れ少ないよな 個人勢しかほぼ公開してないイメージ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/917
918: 名無しさん@ピンキー (ワッチョイ ff8f-UlTu) [sage] 2025/08/12(火) 10:38:28.43 ID:QiuGXy4r0 というか日本語特化LLMなんて作ったところで性能面でマルチリンガルLLMに敵わないんだから使う理由ないんだよな… http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/918
919: 名無しさん@ピンキー (ワッチョイ 6b32-Zgb9) [sage] 2025/08/12(火) 14:21:25.06 ID:bmoN/PW20 >>909 comfyでローカル実行したけど、かなりいいね。 copilotみたいに会話しながら徐々に作画できたらなぁ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/919
920: 名無しさん@ピンキー (ワッチョイ 4641-fnwq) [sage] 2025/08/12(火) 16:55:54.40 ID:9GTZvQat0 >>913 今やってるLLMやVLMの汎用性が高まってAGIに進化し 将来的にインフラに食い込んできて それこそ安全保障に関わりそうだからなあ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/920
921: 名無しさん@ピンキー (ワッチョイ 6b32-Zgb9) [sage] 2025/08/12(火) 17:55:02.37 ID:bmoN/PW20 qwen-image 惨事炉もいけるんかいw http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/921
922: 名無しさん@ピンキー (ワッチョイ 1a72-zlfW) [sage] 2025/08/12(火) 19:21:44.49 ID:TRJPGenH0 GLM 4.5かなりいいな、ロールプレイさせると思考まで日本語でキャラクターになってくれるのが良い http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/922
923: 名無しさん@ピンキー (スプープ Sd4a-ruaz) [sage] 2025/08/12(火) 19:50:11.74 ID:ta0xdeUVd >>922 どこのAPI使ってる? ちょっと高くて二の足を踏んでいる http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/923
924: 名無しさん@ピンキー (ワッチョイ 0a74-G40B) [] 2025/08/12(火) 21:49:53.50 ID:MMPcAlN60 最近のLLM実行環境(llama.cpp, lmstudio,ollama等)って、 メモリが足りなくても動くのな。 スワップしてるのかもしれんが、高速なSSDによる力技と、 元々Moeモデルだからかメモリ負荷が少なめなのか、 gpt-oss-120BのMLX版も、Macminiの64GBでも動いたわ。 Moeだからあんまり遅くもないし。 まぁ、GPUに58/64GBくらいの割り当て無理やり動かしてるんだが、 横で視聴してた動画が止まったり画面が乱れたりしまくるけど。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/924
925: 名無しさん@ピンキー (ワッチョイ 0af5-1AEK) [sage] 2025/08/12(火) 23:32:38.68 ID:qdDa7uK20 MoEのコントロール方法がよくなってんのかね 「部分的なオフロード可能」とかのモデルだとGPUに150Gbyte(実メモリは128GB) とか割り振って割と動作したりする gpt-ossだと専門家が5Bから0.5Bくらいの可変モデルだからx86のGPUにも優しそうだ http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/925
926: 名無しさん@ピンキー (ワッチョイ 078d-AgHL) [] 2025/08/13(水) 00:10:49.50 ID:t4gdcLO90 GLM4.5は今までの中国LLMの中でいちばん日本語が上手に見える http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/926
927: 名無しさん@ピンキー (ワッチョイ 8e76-bOCj) [] 2025/08/13(水) 04:49:48.16 ID:fI/J9ud30 すんません、LLM初心者なんですが、umiyuki/Umievo-itr012-Gleipnir-7B (7B) を導入したんです。 しょっぱなからAIが株式会社シリウスのチャットアシスタントと言って何を言ってもやめてくれないし、 小説書くなら有料だから見積書をとれって…、これってこのAIの仕様なんですか? http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/927
928: 名無しさん@ピンキー (ワッチョイ 5332-bOCj) [sage] 2025/08/13(水) 06:51:35.36 ID:mmJu8OjS0 >>927 ちゃんと設定すれば小説風にも書いてくれるから単に設定がおかしいだけだと思う ただGleipnirはどっちかというとチャット向けだと思うから小説書くのには向いていないかもしれない http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/928
929: 名無しさん@ピンキー (ワッチョイ a71a-UlTu) [sage] 2025/08/13(水) 07:04:22.01 ID:3twd3CLw0 >>926 日本語能力自体はkimi k2の方が上だと思う 人間らしさはGLMのほうが上かも http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/929
930: 名無しさん@ピンキー (ワッチョイ 8e76-bOCj) [] 2025/08/13(水) 08:05:54.82 ID:fI/J9ud30 >>928 小説向けじゃなかったんですね。再起動してもチャットアシスタントのままなんで、 このまま株式会社シリウスのチャットアシスタントと会話を楽しむことにします。 小説向けっぽいの探しに行ってきます。ありがとうございました。 http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/930
931: 名無しさん@ピンキー (ワッチョイ ffb2-AgHL) [] 2025/08/13(水) 08:22:59.50 ID:vQazSjcF0 lmarenaの日本語評価だとこんな感じ https://i.imgur.com/ZeG0xCi.jpeg http://mercury.bbspink.com/test/read.cgi/onatech/1746883112/931
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.012s