[過去ログ]
【オセロ,将棋】ボードゲーム【囲碁,War】 (1002レス)
【オセロ,将棋】ボードゲーム【囲碁,War】 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
951: 310 [sage] 2017/09/21(木) 20:15:32.64 ID:x7IR5Khh tensorflowですか! 環境整備大変そうだと逃げてます。乙です。 速度感とか教えてください。 こちらは、ようやく強化学習の良い方法を考え付きまして。 とりあえずダミーとの対戦と学習部分までコーディングしてみたところ。 今夜デバッグして、強化部分のコーディングする予定。 rollout部で使用するのはあきらめました。 色々やっていたら、勝率も大事だけど、それよりツリー展開のドライバー としての速度の方が大事だと言う結論に(汗 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/951
952: 535 [sage] 2017/09/23(土) 19:53:23.58 ID:5wTLMOiz なんか、3x3のフィルターは学習動くのに5x5のフィルターで学習させようとすると落ちる? とりあえず、3x3のフィルターで進めてみます。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/952
953: 535 [sage] 2017/09/23(土) 19:55:53.86 ID:5wTLMOiz tensorflow固有の問題じゃないかもですがとにかくメモリが足らんですね。 今のマシンは16GBなんですが、可能なら128GBくらい積みたい気分。 やはりスレッドリッパー欲しい。金がないけど。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/953
954: 535 [sage] 2017/09/23(土) 22:35:13.25 ID:5wTLMOiz tensorflowに計算機占有されちゃうの意外と痛いですねorz やはりスレッドリッパーしか… でも金が… http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/954
955: 535 [sage] 2017/09/23(土) 22:53:28.32 ID:5wTLMOiz 局面の勝率計算させてるけど今正解との誤差が平均0.14くらいっぽい 勝率で平均0.14違ったら使い物にならんじゃないのか? うーん。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/955
956: 310 [sage] 2017/09/24(日) 01:20:18.11 ID:1rFk/uJ5 並列処理すると、何使っても計算機資源占有されちゃいますよw だからGPUに逃がしてCPUを空けようとしたりするんですよね。 最近扇風機で冷やすようにしてますが、扇風機無しだとクロック数が80%以下まで 下がってしまって、そういう時に限って、読み切り処理でバグがあるような結果が出て います。理屈ではありえないんだけど。 スレッドリッパーでもi-7900Xでも、CPUの温度対策は大事になると思います。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/956
957: 310 [sage] 2017/09/24(日) 01:47:25.30 ID:1rFk/uJ5 強化学習は、適当にコーディングして結果からデバッグしているので時々不安になり ますが、それなりに学習してくれているみたい。学習内容は同じく勝率で、これをアル ファ碁で言うところのポリシーに使用してます。 強化学習のポリシーを導入した事で、遡りチェックも調子よく遡るようになり、最善手を 指している率が上がったように感じています。しょせん強化学習だし、まだ学習しはじめ なので、精度は高くありませんが、使い方次第ではいける感じです。 強化学習続けたら、定石DBの代わりになるんじゃないかと期待。 しばらく学習フェーズになりますが、次はロールポリシーを改良したいかな。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/957
958: 535 [sage] 2017/09/24(日) 18:11:33.99 ID:nEz2fGFF 損失がこれ以上下がらなそうなところまで来たので、 AIに組み込んでみようと思ったのですが、 tensorflowでの学習結果をどうやってC++にもってくればいいのかよくわからないというw とりあえずググってみますが、見つかるかなぁ? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/958
959: 535 [sage] 2017/09/24(日) 20:00:11.56 ID:nEz2fGFF C++にもってくるの現状そんな簡単じゃないっぽいorz. http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/959
960: 535 [sage] 2017/09/24(日) 23:27:13.26 ID:nEz2fGFF windows上でtensorflowをコードからビルドとかマジすか? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/960
961: 310 [sage] 2017/09/24(日) 23:40:11.06 ID:1rFk/uJ5 ウェイトデータをバイナリで持ってきて、フォワード計算を自分で書くってのじゃダメ? パッケージに任せたい面倒くさいところって、バックワード部分だから。 自分の場合、mctsで並列処理していて、使用している行列パッケージのEigenも並列 計算していて、両方で並列化しちゃうとスレッド取り合って劇遅になっちゃうし、Eigenを シングルスレッドで動かす時のオーバーヘッドが気になったので、AIで使用する時の フォワード計算は自分で書きました。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/961
962: 535 [sage] 2017/09/24(日) 23:49:44.98 ID:nEz2fGFF うーんそれが一番妥当ですかね〜 ありがとうございます。 でもバグなく書けるか若干心配w http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/962
963: 310 [sage] 2017/09/26(火) 00:08:03.06 ID:TqyA8LQm 強化学習、ずっと学習続けていると、途中で弱くなっていく。 アルファ碁のやり方をまねていたけど、一旦超シンプルな方法に変えてみて、 とにかく施行回数を増やしてみます。 強化学習を使って、序盤の評価関数が作れないか検討開始。 あと、時々出ていた終盤探索のバグ。 今度はたぶん大丈夫だと思う。 何度目の大丈夫だって状態だけど(汗 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/963
964: 535 [sage] 2017/09/26(火) 00:31:24.69 ID:Q8jANAxD 学習率って何気に大事なパラメータですね。 速度がかなり違う。 もっと大胆に攻めた値にすべきかな? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/964
965: 310 [sage] 2017/09/27(水) 10:06:01.04 ID:CCZHsP7K 学習率は大事だけど、今時はRMSPropとかADAMとかで 自動計算にしちゃうんじゃないの? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/965
966: 535 [sage] 2017/09/27(水) 21:24:40.34 ID:PlFiGlJN 詳しいことはよくわかりませんが、最適化の関数名はAdamOptimizerとなっているのでそうなのかもしれませんね。 学習率のパラメータ渡すところも引数省略可能っぽいですね〜 自動計算のほうがいいんだろか?。 参考にした本には学習率設定してありましたのでマネしました。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/966
967: 310 [sage] 2017/09/29(金) 10:10:45.06 ID:Cw2Mz5dw それならAdamですね。Tensor Flowなら当たり前ですね。 学習率ってだけだったので、Optimizer無しの学習率だと思いました(汗 省略時引数はたぶんモデル発表者の提示した推奨値です。 まあ、パラメータをいじるかどうかは、個々人の好みとい事で。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/967
968: 535 [sage] 2017/09/30(土) 19:50:26.02 ID:d6qWS2yh フィルターの数も多けりゃ多いほど誤差が減るって単純なものでもないみたいですね。 多すぎると最適化が収束しなくなるっぽい。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/968
969: 535 [sage] 2017/09/30(土) 20:37:24.31 ID:d6qWS2yh パラメータいじりの沼にはまりそうorz http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/969
970: 535 [sage] 2017/09/30(土) 20:50:21.36 ID:d6qWS2yh メモリ!メモリが足らん! http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/970
971: 310 [sage] 2017/09/30(土) 23:21:48.52 ID:WQNilA4m フィルタ数は大きければ大きいほど良いのですが、学習に必要な時間が恐ろしく 長くなります。十分に多いフィルタ数で収束できる事を確認したうえで、だんだんと 減らして行くなんて作業になります。段数についても一緒。 ロースペックマシンだと1回試すのに下手すると数週間とかあり得るのです。 かといって、精度が出せないレベルの簡素なモデルで試しても、いつまでたって も収束せずに、まだかなみたいな。モデルの複雑さが足りているかいないかが わからない点が、困ったちゃんなのです。 さて、強化学習ですが、なんとなく学習しているようにも見えるし、最適解の周囲を 振動しているようにも見えます。ふと思い付いたのですが、最適化(SMORMS3って 奴を使用)をやめて、ただの学習率(もしくは、学習率の漸減)にした方が、動きが 素直になって良いのかも。 今のスピードは1時間に100万対戦。1億対戦するのに4日強かかるわけで。まだ 試行回数が足りていないかもしれないし、そもそもただの線形ではモデルが簡単すぎ るのかもしれません。 というわけで、CNN使わずに線形でやっても同じ問題が起きまするorz http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/971
972: 310 [sage] 2017/09/30(土) 23:46:13.87 ID:WQNilA4m フィルタ数は大きければ大きいほど良いのですが、1回の学習に必要な時間が フィルタ数に比例して長くなります。十分に多いフィルタ数で収束できる事を確認 したうえで、だんだんと減らして行くなんて作業になります。段数についても一緒。 これ、1サイクルの計算時間の話なので、収束しやすさについては、複雑さが 増すとさらに時間がかかる可能性あります。 ロースペックマシンだと収束できるか確認するのに下手すると1か月とかあり得ます。 かといって、精度が出せないレベルの簡素なモデルで試しても、いつまでたって も収束せずに、まだかなみたいな。モデルの複雑さが足りているかいないかが わからない点が、困ったちゃんなのです。 さて、強化学習ですが、なんとなく学習しているようにも見えるし、最適解の周囲を 振動しているようにも見えます。ふと思い付いたのですが、強化学習に限っては、 最適化(SMORMS3を使用)をやめて、ただの学習率(もしくは、学習率の漸減)に した方が、動きが素直になって良いのかも。 今のスピードは1時間に100万対戦。1億対戦するのに4日強かかるわけで。まだ 試行回数が足りていないかもしれないし、そもそもただの線形ではモデルが簡単すぎ るのかもしれません。 というわけで、CNN使わずに線形でやっても同じ問題が起きまするorz http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/972
973: 310 [sage] 2017/09/30(土) 23:46:51.18 ID:WQNilA4m あれ、2度書きになってしまった。 しかも内容が微妙に違うw http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/973
974: 310 [sage] 2017/10/02(月) 22:13:03.03 ID:GHWiob/2 いやぁ、またやっちまった。 バリューの評価値計算が間違っているの気が付いて、リセットしようとしたら、 間違えてポリシーの強化学習の方をリセットしてしまった。またやり直しです。 ちなみに、ただの学習率ってのSGDですね。ようやく思い出した。 ついでなので、若干パラメータ変えて強化学習再開。 時間あたり試行回数は減るけど、トータルで少しは学習が速くなるはず。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/974
975: 535 [sage] 2017/10/04(水) 21:07:28.40 ID:Ls8WOlwm CNNのフォーワード計算自前で書くの結構面倒くさいなぁ。 バグなく書けるかも心配だし。 うーん。 ここで足踏みしてます。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/975
976: 310 [sage] 2017/10/04(水) 22:00:17.02 ID:GdIdmn03 オライリー本のゼロから作るDeep Learningって本ではPythonでのコードが載ってた けど、畳み込みのところをim2colとかいう関数で展開して、行列計算に落としこんでた。 im2colのソースを探したけど、見つからなくて放置してますが、あれが常道だと思います。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/976
977: 310 [sage] 2017/10/05(木) 22:33:23.90 ID:sIPpafz3 ポリシーの強化学習、遅々として進んでいます(汗 時々、テストでMCTS動かしてポリシーの学習値を見ているのですが、 学習対象の全48手のうち、後ろ12手分くらい、それっぽく濃淡がついてきてます。 このまま続けたら、もっと前の方まで学習してくれると期待しているのですが、ここ からが分岐が多い箇所なので、どれくらい時間がかかるか想像がつかない。 で、ポリシーの強化学習の結果を使って、バリューの方も学習させていたのですが、 やはり無理がある事に思い至りました。バリューはバリューで別途強化学習をさせ ないといけない模様。どちらかというとバリューの方が大事なので、このままポリシー の学習を続けるか、一旦棚上げしてバリューの方に乗り換えるか、悩み中。 学習中のポリシーをMCTSに組み込んだところ、速度低下が著しい。メモリーのランダム アクセスが原因だと思う。速度アップネタをいくつか模索してみたいと思いますが、 変更が重いので、いつやるかこちらも悩み中。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/977
978: 535 [sage] 2017/10/06(金) 23:07:13.96 ID:Zz+2m3w3 天頂7発売するらしいですね これは買うしか無い それに合わせてpcも買い換えるチャンスか? 悩ましい http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/978
979: 535 [sage] 2017/10/08(日) 00:36:58.52 ID:wvFd88H+ tensorflowを捨ててC++で使いやすい別のフレームワークを探そうかと思案中 でもtensorflow捨てるの勿体ないなぁとも思う http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/979
980: 535 [sage] 2017/10/08(日) 01:13:04.86 ID:wvFd88H+ ググったらtiny-dnnというのがヒットした。 ちょっと調べてみるか http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/980
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 22 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.019s