Item type |
SIG Technical Reports(1) |
公開日 |
2023-02-13 |
タイトル |
|
|
タイトル |
距離に基づく内発的報酬のためのポテンシャル場生成 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Potential field generation for distance-based intrinsic rewards |
言語 |
|
|
言語 |
jpn |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
名古屋工業大学 |
著者所属 |
|
|
|
名古屋工業大学 |
著者所属 |
|
|
|
名古屋工業大学 |
著者所属 |
|
|
|
中部大学 |
著者所属 |
|
|
|
名古屋工業大学 |
著者所属(英) |
|
|
|
en |
|
|
Nagoya Institute of Technology |
著者所属(英) |
|
|
|
en |
|
|
Nagoya Institute of Technology |
著者所属(英) |
|
|
|
en |
|
|
Nagoya Institute of Technology |
著者所属(英) |
|
|
|
en |
|
|
Chubu University |
著者所属(英) |
|
|
|
en |
|
|
Nagoya Institute of Technology |
著者名 |
中田, 瑛
森山, 甲一
武藤, 敦子
松井, 藤五郎
犬塚, 信博
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
マルチエージェント環境下において,一般的な強化学習ではエージェントが他エージェントに対し協力行動を行うことは困難であるという問題がある.本研究では,効用利用 Q 学習と人工ポテンシャル場(APF)を組み合わせることによって,その問題の解決を図った.環境内のオブジェクトに APF を生成することで,距離に応じた内発的報酬の獲得を行う.そして,APF から獲得した内発的報酬と環境から与えられる外部報酬をもとに効用利用 Q 学習を行うことで,エージェントに対して協力行動を促すことを目的とする.その際,遺伝的アルゴリズム(GA)を用いることで,エージェントの学習に適した APF の生成を目指す. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11135936 |
書誌情報 |
研究報告知能システム(ICS)
巻 2023-ICS-208,
号 1,
p. 1-7,
発行日 2023-02-13
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-885X |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |