WEKO3
-
RootNode
アイテム
GGPにおける強さとバランスを両立したモンテカルロ木探索の方策の学習
https://ipsj.ixsq.nii.ac.jp/records/90398
https://ipsj.ixsq.nii.ac.jp/records/9039833f029bf-4d32-4df1-9e73-5de6a443d7d5
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2013 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2013-02-25 | |||||||
タイトル | ||||||||
タイトル | GGPにおける強さとバランスを両立したモンテカルロ木探索の方策の学習 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Learning Strong And Balanced Policies for Monte-Carlo Tree Search in GGP | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | モンテカルロ木探索 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
東京大学工学部電子情報工学科 | ||||||||
著者所属 | ||||||||
東京大学大学院工学系研究科 | ||||||||
著者所属 | ||||||||
マンチェスター大学コンピュータ科学科 | ||||||||
著者所属 | ||||||||
東京大学大学院工学系研究科 | ||||||||
著者所属 | ||||||||
東京大学大学院工学系研究科 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Department of Infomatics and Communication Engineering, The University of Tokyo | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering, The University of Tokyo | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Computer Science, The University of Manchester | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering, The University of Tokyo | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering, The University of Tokyo | ||||||||
著者名 |
藤田, 康博
× 藤田, 康博
|
|||||||
著者名(英) |
Fujita, Yasuhiro
× Fujita, Yasuhiro
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | General Game Playing (GGP)は形式的に表現されたゲームルールを解釈することで、幅広い未知のゲームをうまくプレイできるプログラムを実現する試みである。GGPにおいてはモンテカルロ木探索が近年成功を収めているが、そのシミュレーション方策をどのように学習すべきかには未知の部分が多い.本研究ではGGPの枠組みにおいて,方策の「強さ」とバランスという性質に関し着目し,既存の学習手法を組み合わせることで「強さ」とバランスを両立を目指す新たな学習手法を提案する.新たな学習手法は一部のゲームにおいて既存手法よりよい性能を示した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | General Game Playing (GGP) is an approach to building a program which can play various games well by interpreting the formal descriptions of their rules. Monte-Carlo tree search has recently been successfully applied in GGP, but it is still largely unknown how the simulation policies should be learned. In this paper, we focus on the strength and balance of policies and propose a new learning method for acquiring policies that are ”strong” and balanced. The experimental results show that the new method performs better than existing methods in some games. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11362144 | |||||||
書誌情報 |
研究報告ゲーム情報学(GI) 巻 2013-GI-29, 号 3, p. 1-8, 発行日 2013-02-25 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |