Item type |
Journal(1) |
公開日 |
2018-02-15 |
タイトル |
|
|
タイトル |
ロボットの情動的かつ社会的表情による人との親密さの強化 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Emotional and Social Facial Expressions of a Robot Enhances Intimacy with Human Partners |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[特集:インタラクションの理解および基盤・応用技術] ロボット,感情,表情,Duchenne Smile,人間らしさ,社会性,親密さ,社会的結合 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
著者所属 |
|
|
|
京都工芸繊維大学情報工学・人間科学系 |
著者所属 |
|
|
|
大阪大学大学院基礎工学研究科/科学技術振興機構,ERATO |
著者所属 |
|
|
|
大阪大学大学院基礎工学研究科/科学技術振興機構,ERATO |
著者所属 |
|
|
|
大阪大学大学院基礎工学研究科/科学技術振興機構,ERATO |
著者所属(英) |
|
|
|
en |
|
|
Information and Human Sciences, Kyoto Institute of Technology |
著者所属(英) |
|
|
|
en |
|
|
Department of Systems Innovation, Osaka University / ERATO, Japan Science Research Institute International |
著者所属(英) |
|
|
|
en |
|
|
Department of Systems Innovation, Osaka University / ERATO, Japan Science Research Institute International |
著者所属(英) |
|
|
|
en |
|
|
Department of Systems Innovation, Osaka University / ERATO, Japan Science Research Institute International |
著者名 |
田中, 一晶
小山, 直毅
小川, 浩平
石黒, 浩
|
著者名(英) |
Kazuaki, Tanaka
Naoki, Koyama
Kohei, Ogawa
Hiroshi, Ishiguro
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
人とインタラクションを行うロボットの感情表現は,感情状態をそのまま表現するか,感情状態とは無関係に社会性を表現するか,いずれかの方針で設計されている場合が多い.本研究では,これらの感情表現を情動的表現,社会的表現と定義し,新たに両方を組み合わせた感情表現手法を提案した.人が愛想笑いを行うとき,目元の表情には感情が不随意に表れるが,口元の表情を随意に変化させて微笑むといわれている.この知見に基づいて,提案手法では,目元は情動的表現によって,口元は社会的表現によって表情を決定する.人との対話実験において,提案手法を実装したロボットと一方の感情表現しか行わないロボットとを比較した結果,提案手法は人間らしい印象と社会的な印象の両方において高い評価が得られる可能性が示唆された.さらに,親密さの評価として,友だちになりたいなど,強い社会的結合を必要としない項目の評価では社会的表現が有効に働くが,一緒に生活したいなど,より強い社会的結合を必要とする項目の評価では,情動的表現も必要であることが示唆された. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
The behaviors of social robots are often designed based on either one of expressing its emotional state or expressing sociality irrespective of its emotional state. In this study, we defined these expressions as emotional and social expressions respectively, and proposed a new emotional expression method combining both. When a person makes non-duchenne smile, it is known that she smiles with a voluntary change in the expression around the mouth but her emotion appears involuntary in the expression around the eyes. Based on this finding, in our proposed method, the expression around eyes and mouth are determined by the emotional and social expressions respectively. In an experiment of human-robot conversation, we compared our proposed method and the methods that used only one of the emotional expressions. The result indicated that our proposed method may be highly evaluated in both impressions of human likeness and sociality. In an evaluation of intimacy, the result also showed that the social expression works effectively in the evaluation of items that do not require a strong social bonding, such as wanting to become friends, but the emotional expression is also necessary in the evaluation of items that require a stronger social bonding, such as wanting to live together. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00116647 |
書誌情報 |
情報処理学会論文誌
巻 59,
号 2,
p. 622-632,
発行日 2018-02-15
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7764 |