WEKO3
-
RootNode
アイテム
マルコフ決定過程のロールプレイングゲームへの適用
https://ipsj.ixsq.nii.ac.jp/records/82612
https://ipsj.ixsq.nii.ac.jp/records/82612e42e46ec-1b31-49c6-8415-c1aba4ae2d82
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2012 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Journal(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2012-06-15 | |||||||
タイトル | ||||||||
タイトル | マルコフ決定過程のロールプレイングゲームへの適用 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Applying Markov Decision Processes to Role-playing Game | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | [特集:パズルの数理] マルコフ決定過程,ロールプレイングゲーム,統計的決定理論,動的計画法,ベイズ基準 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
資源タイプ | journal article | |||||||
著者所属 | ||||||||
北見工業大学 | ||||||||
著者所属 | ||||||||
北見工業大学 | ||||||||
著者所属 | ||||||||
北見工業大学 | ||||||||
著者所属 | ||||||||
北見工業大学 | ||||||||
著者所属 | ||||||||
北見工業大学 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Kitami Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Kitami Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Kitami Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Kitami Institute of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Kitami Institute of Technology | ||||||||
著者名 |
前田, 康成
後藤文太朗
升井, 洋志
桝井, 文人
鈴木, 正清
× 前田, 康成 後藤文太朗 升井, 洋志 桝井, 文人 鈴木, 正清
|
|||||||
著者名(英) |
Yasunari, Maeda
Fumitaro, Goto
Hiroshi, Masui
Fumito, Masui
Masakiyo, Suzuki
× Yasunari, Maeda Fumitaro, Goto Hiroshi, Masui Fumito, Masui Masakiyo, Suzuki
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 従来からマルコフ決定過程(MDP)を用いたロールプレイングゲーム(RPG)のモデル化が行われている.従来研究ではRPGが部分的にモデル化されている.本研究では,MDPを用いてより一般的なRPGのモデル化を行う.最初にMDPの真のパラメータ既知の場合に相当するRPGについて,報酬の期待値を最大にするアルゴリズムを提案する.次にMDPの真のパラメータ未知の場合に相当するRPGについて,ベイズ基準のもとで報酬を最大にするアルゴリズムを提案する.次にMDPの真のパラメータ未知の場合に相当するRPGについて,学習データを用いて報酬を近似的に最大にするアルゴリズムを提案する. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | In previous research a part of role-playing game (RPG) is represented with Markov decision processes (MDP). In this research we represent a more general PRG with MDP. We maximize an expected total reward under the condition that the true parameter of MDP is known in the first proposition. We maximize an expected total reward with respect to a Bayes criterion under the condition that the true parameter of MDP is unknown in the second proposition. We approximately maximize an expected total reward using learning data under the condition that the true parameter of MDP is unknown in the third proposition. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN00116647 | |||||||
書誌情報 |
情報処理学会論文誌 巻 53, 号 6, p. 1608-1616, 発行日 2012-06-15 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 1882-7764 |