Item type |
Trans(1) |
公開日 |
2015-06-16 |
タイトル |
|
|
タイトル |
新しいタスクモデルによるメニーコア環境に適したMPIノード内通信の実装 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Implementing Many-core Friendly MPI Intra-node Communication with New Task Model |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[高性能計算] HPC,メニーコア,OS,MPI,ノード内通信 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
著者所属 |
|
|
|
理化学研究所計算科学研究機構/現在,株式会社日立製作所 |
著者所属 |
|
|
|
理化学研究所計算科学研究機構 |
著者所属 |
|
|
|
理化学研究所計算科学研究機構 |
著者所属(英) |
|
|
|
en |
|
|
RIKEN AICS / Presently with Hitachi Ltd. |
著者所属(英) |
|
|
|
en |
|
|
RIKEN AICS |
著者所属(英) |
|
|
|
en |
|
|
RIKEN AICS |
著者名 |
島田, 明男
堀, 敦史
石川, 裕
|
著者名(英) |
Akio, Shimada
Atsushi, Hori
Yutaka, Ishikawa
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
近年,HPCシステムを構成するノード1台あたりのコア数は飛躍的に増加してきている.一方で,1コアあたりのメモリ量は減少する傾向にある.Partitioned Virtual Address Space(PVAS)は,このようなメニーコア環境において,効率的に並列処理を行うための新たなタスクモデルである.PVASタスクモデルを用いると,並列処理を行うノード内のプロセス群を同一アドレス空間で動作させることが可能になるため,アドレス空間越しにデータを送受信するためのコストを払うことなく,プロセス間でノード内通信を実行することができる.本研究では,PVASタスクモデルをMessage Passing Interface(MPI)に適用することで,高速かつメモリ消費量の少ない,よりメニーコア環境に適したMPIノード内通信を実現できることを示す.PVASタスクモデルを利用したMPIノード内通信を実装し,NAS Parallel Benchmarksにより評価したところ,既存のMPIノード内通信の実装と比べて最大で約18%,実行性能が改善された.また,Intel MPI Benchmarksによって,MPIノード内通信のメモリ消費量を測定したところ,最大で約264MB,メモリ消費量を削減することができた. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Recently, number of cores in an HPC system node grows rapidly. Meanwhile, the amount of per-core memory resources seems to be limited. Partitioned Virtual Address Space (PVAS) is a new task model, which enables efficient parallel processing in such many-core environments. The PVAS task model allows multiple processes to run in the same address space, which means that processes running on the PVAS task model can conduct intra-node communication without incurring extra costs when crossing address space boundaries. In this paper, the PVAS task models is applied to Message Passing Interface (MPI), and many-core friendly MPI intra-node communication, which can conduct fast communication with small memory footprint, is proposed. The benchmark results show that the MPI intra-node communication proposed in this paper improves MPI application performance by up to 18%. Moreover, the memory footprint for MPI intra-node communication is decreased by up to 264MB. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11833852 |
書誌情報 |
情報処理学会論文誌コンピューティングシステム(ACS)
巻 8,
号 2,
p. 36-54,
発行日 2015-06-16
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7829 |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |