WEKO3
-
RootNode
アイテム
視聴者の時刻同期コメントを用いた楽曲動画の印象分類
https://ipsj.ixsq.nii.ac.jp/records/92749
https://ipsj.ixsq.nii.ac.jp/records/927490a3302d4-bf9a-48d2-90f3-33b632e75de0
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2013 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Trans(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2013-06-28 | |||||||
タイトル | ||||||||
タイトル | 視聴者の時刻同期コメントを用いた楽曲動画の印象分類 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Using Viewers' Time-synchronized Comments for Mood Classification of Music Video Clips | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | [研究論文] 印象推定,ユーザ生成メディア,音楽情報検索 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
資源タイプ | journal article | |||||||
著者所属 | ||||||||
京都大学大学院情報学研究科 | ||||||||
著者所属 | ||||||||
明治大学総合数理学部/科学技術振興機構CREST | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Informatics, Kyoto University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Interdisciplinary Mathematical Sciences, Meiji University / JST CREST | ||||||||
著者名 |
山本, 岳洋
中村, 聡史
× 山本, 岳洋 中村, 聡史
|
|||||||
著者名(英) |
Takehiro, Yamamoto
Satoshi, Nakamura
× Takehiro, Yamamoto Satoshi, Nakamura
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 本稿では,印象に基づく楽曲検索実現のために,動画共有サイト上に投稿された楽曲動画を,可愛らしい,切ない,元気がでるといった印象に分類する手法を提案する.楽曲動画の印象分類のため,ユーザの投稿した時刻同期コメントに着目し,単語の品詞,文字の繰返し構造,楽曲のサビ区間の3つを利用する.実験では1,314本の楽曲動画を7印象クラスに分類し,提案手法がF値のマクロ平均で0.659を達成しベースライン手法よりも高い精度を得た.また,楽曲の歌詞や音響特徴量を用いた分類手法とも比較し,提案手法の有効性を示した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | This paper proposes a method to classify music video clips, which are uploaded to the video sharing service, into the mood categories such as “cute,” “sorrow” and “cheerful.” The method leverages viewers' time-synchronized comments posted to video clips to classify the video clips into moods. It extracts features from the comments in the terms of (1) parts-of-speech, (2) lengthened words and (3) chorus parts of the music. Our experimental results showed that out method achieved the best classification performance (Macro F-measure of 0.659) compared with some baselines. In addition, our method outperformed the conventional approaches that utilize lyrics and audio features of musics. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11464847 | |||||||
書誌情報 |
情報処理学会論文誌データベース(TOD) 巻 6, 号 3, p. 61-72, 発行日 2013-06-28 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 1882-7799 | |||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |