[過去ログ]
【オセロ,将棋】ボードゲーム【囲碁,War】 (1002レス)
【オセロ,将棋】ボードゲーム【囲碁,War】 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
807: 名前は開発中のものです。 [sage] 2017/04/28(金) 07:46:25.71 ID:cnKbVTYz ニュースを見て藤井猛が勝利したのかと 勘違いした俺… ニュースにならねえよ! http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/807
808: 535 [sage] 2017/04/29(土) 00:08:17.53 ID:knMl9lYg ニューラルネットワーク自作入門という本を買ってきました。 平易に書こうとしてるのが伝わってくる本ですね。 平易に書くの最近の流行りなんですかね? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/808
809: 310 [sage] 2017/05/03(水) 15:03:32.93 ID:v36x8qrF 最近はもっぱらポリシーとバリューの両評価関数のテストです。 ポリシーの方は線形ソフトマックスで大丈夫そう。大体50%の正答率になります。 MLP版もコーディングはしてますが、まだテストまで至っていません。 バリューの方は、ステージ分割なしのMLP版を試してます。 計算に時間がかかりすぎて調整が進みません(汗 頭の片隅には、いつかはDCNNというのが残っています。 以前やった時に、畳み込みフィルタ演算の展開形を考えた事あります。 その時は、汎用性が無いという理由で、あまり乗り気じゃなかったのですが、 今となっては、そのまま進めればよかったかなと思う次第。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/809
810: 名前は開発中のものです。 [sage] 2017/05/04(木) 17:16:11.41 ID:Hvuj7SvG pona負けたとかなんとか http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/810
811: 310 [sage] 2017/05/05(金) 01:52:31.91 ID:Orwfb9MI 世界コンピュータ将棋選手権ですね。 8勝1敗同率で、elmoに直接対決で負けた関係で予選2位通過みたいですね。 将棋は電王戦くらいしか見てなかったので、マシン制限があると思ったら、 こっちは凄いですね。CPU1092(Xeon)にGPU128基ですか…。 やっぱディープラーニングすると、それなりのマシンパワーがいるのよね。 しかも最速マシンは20億NPSとか言っているみたい(笑うしかない)。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/811
812: 310 [sage] 2017/05/05(金) 02:46:05.76 ID:Orwfb9MI で、Ponanza Chainerに対する半可通っぽい疑問。 アピール文章読んだけど、ディープラーニングは評価関数ではなく、 ポリシーネットに相当する次の1手導出に使われているっぽい。 何故バリューじゃなくてポリシーなのか? で、αβ系探索でポリシーとなるとオーダリングに使うくらいしか思いつかない。 将棋ってオーダリングに良いヒューリスティックスないのかな? YBWCのPV決定だと縦に並んじゃうから、並列にする意味がない。 確率の高い手は次の段でPVの数を増やしたりするのかな? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/812
813: 名前は開発中のものです。 [sage] 2017/05/05(金) 08:17:59.66 ID:cViTmSg9 将棋(やチェス)だとYBWCよりもLazy SMPが流行ってるみたいですね Ponanza Chainerはそれのクラスタ版のeXtreme Lazy Smpらしいですが。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/813
814: 310 [sage] 2017/05/05(金) 08:31:32.47 ID:Orwfb9MI >>813 どうもです。早速見てみました。 自分のPCは2コアの擬似4コアなので恩恵なさそうです(汗 つか、並列化についてはPPLにお任せしちゃってるので、あまり要点が わかっていないかも。 しかし、GPS将棋のクラスタすげーと思っていた時代は、一瞬で過去の ものになってしまったのですねぇ。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/814
815: 310 [sage] 2017/05/05(金) 17:24:07.29 ID:Orwfb9MI elmo優勝でPonanzaが2位みたいですね。 なんか、将棋も強くなるスピードが尋常じゃない感じ。 目標設定して(前年比9割勝利とか)、マシンパワーとか確実性が ある所にも、資源を振り向けて達成しているみたいにも見えますが。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/815
816: 名前は開発中のものです。 [] 2017/05/05(金) 17:48:22.87 ID:hWowcZg5 ディープラーニングと将棋の相性が悪いてことだろうか? elmoとやらは既存アルゴリズムなんですよね? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/816
817: 名前は開発中のものです。 [sage] 2017/05/05(金) 18:47:05.96 ID:hWowcZg5 elmoて公開されてるんです? すごいなー ソース読んでみようかなー http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/817
818: 310 [sage] 2017/05/05(金) 20:43:38.31 ID:Orwfb9MI >>816 自己対局で作った自作定石のDB積んでるみたいです。 ディープラーニングの使う場所は、オーダリングくらいしかなさそうなので、 実はオーバーヘッドとの兼ね合いが微妙じゃないかと疑ってます。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/818
819: 名前は開発中のものです。 [sage] 2017/05/06(土) 09:18:07.29 ID:ODpfq25G 自分もディープラーニングっぽいので将棋作ろうとしたけど 能力も価値も違う駒が複数あるから、それをどうするかで悩んで止まった そのまま探索に掛けるわけにもいかず ようするに駒割をどうするかわからなかった 一致率自体は普通に上げられるんだけどね http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/819
820: 名前は開発中のものです。 [sage] 2017/05/06(土) 09:20:21.30 ID:bJnH/Q0z そもそも将棋って、同種のゲームの中でAIにやらせるのは一番難しいくらいなんでしょ? もっと簡単なゲームからやってみては。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/820
821: 310 [sage] 2017/05/06(土) 09:41:02.64 ID:eGOwqfr/ >>816 相性が悪いというより、効果を出し切れるところまで行かなかったのかも知れませんね。 Ponanzaは2位とはいえ、他の人には全部勝っているわけで、弱くなったわけではないと 思います。 elmoは予選で1敗しているので、予選時にponanzaに勝ったのまぐれかもと思っていたけど 直接対決2連勝で、決勝は全勝なので、やはりelmoの1年間での進歩が凄いかと。 1年間という時間制約の中で、レート向上の目標を200くらいとして、それを何で達成 するかと考えた時に、ディープラーニングを使わなくても同じくらいの向上はできたのかも 知れませんね。 とはいえ、今年は十分に活用しきれなかったけど、適用の仕方を煮詰める事で、来年から はボーナスのレート向上が見込めるとか、そういう事はあるかも知れませんね。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/821
822: 535 [sage] 2017/05/08(月) 22:06:30.07 ID:bLY5QORw ディープラーニングやり直してみました。 与えられた局面の勝率を学習させて、一手読みで打たせてみました。 局面が均衡しているときは結構いい手を返すみたいですが、 不利に傾くと全然おかしい手を打ち始めます。 学習させた棋譜に偏りがあるんだろうか? どちらかに不利に傾いた局面も学習させるべき? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/822
823: 310 [sage] 2017/05/08(月) 23:27:34.27 ID:Byk3wJkT 悩ましいところですね。偏った棋譜を学習させるべきか、否か。 相手も弱いから、偏った棋譜になるわけで、そういう時にも問題が起きないように 探索と組み合わせるわけで。そう考えたら、そのままで良いのかも知れないし、 やってみないとわからないかも。自分的には、MCTSにおいてモンテカルロの 問題(隘路の騙し構造)に対して、先に避けるために、選択肢を偏らせるモノだと 認識していますので、拮抗している時に正しい手を返せばよいかと思っています。 自分は、Buroさんの特徴量をベースにしたMLPで評価関数作っているのだけど、 傾向としては線形回帰と変わらない印象です。与えている元データの偏りなのか、 それとも特徴量の選択の問題なのか、悩み中です。DCNNで特徴量抽出まで やらせたいと、をもう一度試そうかなと言う機運になってます。 ただ、頭の中に、ワンチップマイコンで学習外だしというのがチラついていまして、 そこに入り込むと数か月、下手したら半年はとられるなぁと悶々中。 そうそう。アルファ碁のバリューネットの勝率ですが、割引率を考えたら… という点に思い至りまして。普通勝率の評価関数はロクなもんじゃないのですが、 強化学習とセットなら、ありかもとちょっと思っています。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/823
824: 310 [sage] 2017/05/15(月) 09:41:45.01 ID:hagdu+z8 オライリーさんのところのディープラーニング本(Pythonで学ぶ奴)を読んでみました。 自分で実装する人には、なかなか良いです。Python知らないですが、説明だけで結構 おなか一杯になります。 オライリー本で、畳み込み演算の実装(行列に落とし込む)の良い方法がわかりました。 自分が以前やって放置した展開形よりもっと良い方法があるんですね。ちと畳み込む気 が湧いてきました。 現在MLP版のポリシーネットを学習させていますが、テストデータに対して60%越え まで来ました。一方で入力データサイズが89万(特徴)×16万(ミニwバッチ)とか わけわからん事になっていて、もう畳み込んでも処理量大差ないんじゃないかと思って いたところですので、学習限界が見えたら、畳み込みに行ってみようかと思います。 あと、やっぱり強化学習ですね。既存データで学習していても埒があかない気が強くして きました。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/824
825: 535 [sage] 2017/05/15(月) 22:23:31.10 ID:1z5ugcc4 ディープラーニング黒石を1、空点を0、白石を-1を入力として学習させたけど、 黒石かそうでないかの01データと空点かそうでないかの01データと白石かそうでないかの01のデータ と3つに分けて食わせたほうがいいんだろうか? http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/825
826: 310 [sage] 2017/05/16(火) 09:54:31.52 ID:Vk+2t4O7 >>825 問答無用で後者です。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/826
827: 535 [sage] 2017/05/16(火) 21:15:39.88 ID:3NTvf1qj >>826 うーんそうなんですか。なんかそんな気はしましたが。。。 まあぼちぼちやりなおしてみます。 ありがとうございます。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/827
828: 535 [sage] 2017/05/17(水) 22:57:33.27 ID:2rHwBE7R 今すごくいい勝ち方した。 必勝形を意識した連続攻撃。 こういうのが毎回打てればなぁ。 (;SZ[19] ;B[jj];W[ik];B[ij];W[hk];B[jk];W[gk];B[kl];W[hi] ;B[ji];W[jm];B[kh];W[km];B[jg];W[jl];B[kf];W[li] ;B[je];W[id];B[jf];W[jd];B[jh]) http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/828
829: 310 [sage] 2017/05/19(金) 20:14:05.97 ID:skXdWaLK 結局、tiny_dnnでDCNNを組んでテスト開始。 ウィンドウサイズ3で、Conv7層+fullcon2層構成。 隠れ層のチャンネル数は暫定で32。 入力は自分・相手・空白・着手可能位置の64×4個。 入力データをDCNN用に展開すると、メモリーに収まりきらずに盛大にスワップ。 BITBOARDの64ビットデータ(unsigned int64)が、32ビット(float)×64個のvectorに 膨らんでしまうのが原因です。 仕方がないので、ファイルを適当なサイズごと読み込みながら、中間バッチを作って、 それを順次学習する形にしました。 で、中間の時間を計ってみたところ、1エポック分学習するのに数日という予想に。 全く非実用的です。どうしよう。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/829
830: 535 [sage] 2017/05/19(金) 20:21:41.55 ID:z5dIsNlN 310氏は今のノート捨ててデスクトップでいい奴組むべきw http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/830
831: 310 [sage] 2017/05/21(日) 16:44:31.83 ID:kUdqCG8C ちょこっと直して学習して様子を見てとかやってるうちに、学習しない時間かかると 言う酷い状況に陥りました。最初にテストで1バッチやった時は18分で35%程度の 正答率だったのに。いまでは1バッチ1時間の癖にNaNになったり、正答率3%程度に 落ち着いちゃったり。いわゆる勾配消失になってる模様です。学習進めば進むほど、 勾配消失も進むので、活性化関数をLeaky_ReLUとかにしなきゃいけないかも。 で、段々と強化学習方向に逃げはじめました。 かなり小さいDCNNで学習できるかテストするつもりで、強化学習のプログラム書き はじめました。まあ、学習するにも、余計時間かかりそうですが。 マジで、デスクトップ欲しいです・・・ http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/831
832: 535 [sage] 2017/05/24(水) 20:50:33.25 ID:NHCMa7e2 中盤で攻めがつながるうち回しが欲しいなぁ。 上手く探索したらかなり枝刈出来そうな気もするが、 それは手書き評価関数を書くのと変わらん難しさという。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/832
833: 535 [sage] 2017/05/25(木) 21:07:01.59 ID:nz71uY7p うあああああ、なんかおかしいと思ったらデータ読み込んでなかったw 全然変な手を打つと思ったらそういうことかーorz orz orz http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/833
834: 535 [sage] 2017/05/26(金) 21:03:34.78 ID:B39N4gaL バグが治ったらLV3にいい線まで迫ってきた凄い! 18局目 黒(airandom.dll)の勝利回数: 9 白(ai-lv3.dll)の勝利回数: 9 19局目 黒(ai-lv3.dll)の勝利回数: 12 白(airandom.dll)の勝利回数: 7 思考時間がめちゃくちゃ長いのが当面の課題ですね〜 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/834
835: 535 [sage] 2017/05/27(土) 01:33:58.68 ID:vCz7BcHT 多分、あと二つくらい良い特徴量さえ見いだせればLV3に勝つる。 良い特徴量さえあれば! http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/835
836: 310 [sage] 2017/05/27(土) 20:17:57.81 ID:TGXtrM6M 強化学習に大きく方向転換。 最初、ポリシーネットを模して学習しようとしたけど、出力がソフトマックスの時 負け側の教師データをどうするのか不安があったので、まずは普通にQ学習で 勝率を学ぶ事にしました。 ざっと作ったところでデバッグに時間がかかりまして、ようやく多分ちゃんと学習して いるんじゃないかと思うところまで来ました。が、初期の学習をしないでランダム初期化 のまま開始してしまいましたので、学習はしているみたいだけど、実用レベルの学習 をするまで、どれくらいかかるのか、想像もつきません(汗 100回対戦して、1エポック学習するのに、大体8〜10分くらい。控えめに見て 1000万対戦としても、10万分。つまり2か月強必要です。アルファ碁は初期値を 学習した上で追加の強化学習が確か数千万対戦だから、年単位でも足りないかも(笑) 手を完全に固定(ランダム要素排除)した状態で学習により勝つ方向に遷移する事 は確認しましたが、最初の方をランダムにしたりε-greedyしたりして局面が偏らない ようにしてから、1万対戦しても勝率が良くなる気配が無いので、まだすごく不安です。 http://mevius.5ch.net/test/read.cgi/gamedev/1057763418/836
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 166 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.011s