WEKO3
アイテム
{"_buckets": {"deposit": "cb1f8fb4-a8a3-4418-8afc-f4dc5b514511"}, "_deposit": {"created_by": 1, "id": "482", "owners": [1], "pid": {"revision_id": 0, "type": "depid", "value": "482"}, "status": "published"}, "_oai": {"id": "oai:ir.soken.ac.jp:00000482", "sets": ["12"]}, "author_link": ["8487", "8486", "8488"], "item_1_biblio_info_21": {"attribute_name": "書誌情報(ソート用)", "attribute_value_mlt": [{"bibliographicIssueDates": {"bibliographicIssueDate": "1999-03-24", "bibliographicIssueDateType": "Issued"}, "bibliographic_titles": [{}]}]}, "item_1_creator_2": {"attribute_name": "著者名", "attribute_type": "creator", "attribute_value_mlt": [{"creatorNames": [{"creatorName": "奥村, 晴彦"}], "nameIdentifiers": [{"nameIdentifier": "8486", "nameIdentifierScheme": "WEKO"}]}]}, "item_1_creator_3": {"attribute_name": "フリガナ", "attribute_type": "creator", "attribute_value_mlt": [{"creatorNames": [{"creatorName": "オクムラ, ハルヒコ"}], "nameIdentifiers": [{"nameIdentifier": "8487", "nameIdentifierScheme": "WEKO"}]}]}, "item_1_date_granted_11": {"attribute_name": "学位授与年月日", "attribute_value_mlt": [{"subitem_dategranted": "1999-03-24"}]}, "item_1_degree_grantor_5": {"attribute_name": "学位授与機関", "attribute_value_mlt": [{"subitem_degreegrantor": [{"subitem_degreegrantor_name": "総合研究大学院大学"}]}]}, "item_1_degree_name_6": {"attribute_name": "学位名", "attribute_value_mlt": [{"subitem_degreename": "博士(学術)"}]}, "item_1_description_1": {"attribute_name": "ID", "attribute_value_mlt": [{"subitem_description": "1999805", "subitem_description_type": "Other"}]}, "item_1_description_12": {"attribute_name": "要旨", "attribute_value_mlt": [{"subitem_description": " 核融合科学研究所の制御データ処理装置は、著者達が平成5年から共同研究として進めてきた「ワークステーションを用いたデータ収集・解析・制御システムの研究」の成果として開発されたものである。これは、大規模システムに対応した構成を取り、容易にCHの拡大を計る事が出来るシステムであり、アナログデータを増幅した後、アナログ・デジタル変換器(ADC)でサンプリング及びデジタイズを行い、多チャンネルの時系列データとして計算機に取り込む。これをバイナリーファイルとして保存する、データベース管理ソフトに登録すると同時にネットワークに実時間配送し、WWWブラウザーによってユーザーがデータ取り込むことが出来るシステムであり、今後の大型システムでのデータ処理システムの一つの大きな方向を示す形となった。\u003cbr /\u003e さて、このようなシステムを考える場合、データ量が膨大となり、データの保存・転送のコストが無視できない事が予測される。そのために、圧縮によってデータ量が数分の1になれば、データ保存用のハードディスクなどの費用は数分の1になると同時にネットワークの輻榛(混雑)も数分の1に留めることが出来る。この理由によりデータ圧縮の研究を開始した。\u003cbr /\u003e データ圧縮の技術は、情報量の損失のない可逆圧縮と、情報量の損失のある非可逆圧縮の2種類があり、後者は近年マルチメディアへの応用のために盛んに研究が行われているが、計測データに利用することは出来ない。更に、処理形態としては、実時間処理とバッチ処理があり、後者は従来から研究が広く行われてきたが、当然ながら実時間でネットワークを介して監視するデータは高速の実時間圧縮が必要になる。以上の要請のために、今回新たに高速・実時間・可逆なデータ圧縮アルゴリズムを開発し、コーディングに成功し、核融合科学研究所のデータに適用した結果を以下に述べる。\u003cbr /\u003e データ圧縮の研究は1948年のShannonの情報理論に端を発し、その後、彼の学生であったHuffmanによって符号化による圧縮方法が考案された。現在のすべての符号化による圧縮はHuffmanにその基礎を置く。その後、1976年にRissanen他によって算術符号化が開発されるが、理解することに多大な努力を要することもあり、それほど一般化されなかった。一方、その後パーソナルコンピュータの発達もあり、Zip-LempelによってLX77,LZ78と言われる圧縮ソフトが1977年及び78年に開発され、一般に利用されるようになった。その後、WelchによってLZ78の改良が行われ、LZWと言われるコードが作られた。一方、著者等は、1988年にLZ77をベースに圧縮ソフトの開発を始め、その年に著者はLZARIを発表し、吉崎はLZHUF、LZarcを発表し、広く日本でも利用されるようになった。そして、1989年に著者は現在広く利用されているLHAと言われるソフトのアルゴリズムを発表し、1990年にC言語で書かれた圧縮ツールを発表した。そして、吉崎がLHAとして完成し、広く利用されるようになった。これとほぼ同じアルゴリズムのソフトとしては、フランスのJean-loup Gaillyによるgzipがある。\u003cbr /\u003e さて、圧縮アルゴリズムとして上記に書いた要請があるため、以上の今までの圧縮アルゴリズムを検討し、2つの方法を採用することにした。一つはHuffmanの符号化でり、もう一つはデータの時間的変化を直前の数点のデータから予測する方法を組み合わせた方法である。従って、この方法は予測誤差符号化と言うことが出来る。具体的には、直前の数点のデータから次のデータを予測し、それからの誤差の分布を正規分布及びLaplace分布を用いて、予測誤差の分布グラフを作る・実際のデータとの比較を行うと、誤差分布は正規分布とLaplace分布の間位になっている。これは、時折、急激に変化するデータがあり、そのため予測誤差の2乗和の平均分散を推定すると、分布の中央部の度数分布から推定した分散より大きめの値を得るからである。そして、そのようにして得た分布データを長さ制限のある符号に変換する。ここでは8ビットに制限し、符号化を行った。このような、長さ制限のある符号化を行ったのは最初にLarmore and Hirschbergであり、比較的高速でメモリーを余り使わない効率の良い圧縮方法として知られている。しかし、そのような方法でも大変手間のかかる方法であり、実際に利用される符号は一部に限られるので、より単純で高速な方法を考案した。それは、場合分けを8ビットに制限した時には、406通りしかないので、予めその表を作っておき符号化手順を高速に行うことである。このような方法をとっても1シンボル当たり0.047ビットの損しかなく、これは最悪の場合であるため、実際にはほとんど影響は出ないからである。\u003cbr /\u003e 以上のアルゴリズムをコーディングし、実際の核融合科学研究所の大型ヘリカル装置のデータの圧縮を行った。実際のデータは熱電対で測定した温度、歪ゲージで測定した歪、マイクロ波の出力、磁場、コイル電流及び電圧、プラズマからの輻射などでからなるデータ群である。急激に変化するデータはやはり圧縮比はそれほど大きくなく、16ビットの生データに対して、8-10ビット程度になるが、変化の少ないデータでは2ビット以下に圧縮された。そして、それら全体を通じて、元データ(複数の性質の違ったデータをすべて含む)が8.74MBに対して、通常バッチファイルの圧縮に利用されているAip,LHAが4.8MB程度に圧縮し、今回開発したソフト(NIFSqと言う)は、2.00MBに圧縮することができた。従って、従来のソフトより圧縮比で2倍程度性能が良い。更に、圧縮時間であるが、CPUのクロックが400MHzのPentium-II,のパーソナルコンピュータ(オペレーティングシステムはLinux)ではZip,LHAに比べて3分の1から4分の1以下の時間で行うことが出来た。従って、従来のソフトに比べてかなり高速なったことが分かった。そして、適応型のソフトのために、現状のデータ処理システムではほとんど無制限なCHまで圧縮可能のソフトとなった。\u003cbr /\u003e 以上より、当初の要請は満足されたと考えるべきである。今後の課題はアルゴリズムの最適化及びユーザーインターフェースを改良した上でMacintoshなども含めた計算機環境での利用を可能にし、C++やJavaに書き直すことなどである。", "subitem_description_type": "Other"}]}, "item_1_description_18": {"attribute_name": "フォーマット", "attribute_value_mlt": [{"subitem_description": "application/pdf", "subitem_description_type": "Other"}]}, "item_1_description_7": {"attribute_name": "学位記番号", "attribute_value_mlt": [{"subitem_description": "総研大乙第62号", "subitem_description_type": "Other"}]}, "item_1_select_14": {"attribute_name": "所蔵", "attribute_value_mlt": [{"subitem_select_item": "有"}]}, "item_1_select_8": {"attribute_name": "研究科", "attribute_value_mlt": [{"subitem_select_item": "生命科学研究科"}]}, "item_1_select_9": {"attribute_name": "専攻", "attribute_value_mlt": [{"subitem_select_item": "10 核融合科学専攻"}]}, "item_1_text_10": {"attribute_name": "学位授与年度", "attribute_value_mlt": [{"subitem_text_value": "1998"}]}, "item_1_text_20": {"attribute_name": "業務メモ", "attribute_value_mlt": [{"subitem_text_value": "(2018年2月8日)本籍など個人情報の記載がある旧要旨・審査要旨を個人情報のない新しいものに差し替えた。承諾書等未確認。要確認該当項目修正のこと。"}]}, "item_creator": {"attribute_name": "著者", "attribute_type": "creator", "attribute_value_mlt": [{"creatorNames": [{"creatorName": "OKUMURA, Haruhiko", "creatorNameLang": "en"}], "nameIdentifiers": [{"nameIdentifier": "8488", "nameIdentifierScheme": "WEKO"}]}]}, "item_files": {"attribute_name": "ファイル情報", "attribute_type": "file", "attribute_value_mlt": [{"accessrole": "open_date", "date": [{"dateType": "Available", "dateValue": "2016-02-17"}], "displaytype": "simple", "download_preview_message": "", "file_order": 0, "filename": "乙62_要旨.pdf", "filesize": [{"value": "447.8 kB"}], "format": "application/pdf", "future_date_message": "", "is_thumbnail": false, "licensetype": "license_11", "mimetype": "application/pdf", "size": 447800.0, "url": {"label": "要旨・審査要旨 / Abstract, Screening Result", "url": "https://ir.soken.ac.jp/record/482/files/乙62_要旨.pdf"}, "version_id": "25a73a59-4709-4660-a7ef-bae0dbef740a"}, {"accessrole": "open_date", "date": [{"dateType": "Available", "dateValue": "2016-02-17"}], "displaytype": "simple", "download_preview_message": "", "file_order": 1, "filename": "乙62_本文.pdf", "filesize": [{"value": "3.0 MB"}], "format": "application/pdf", "future_date_message": "", "is_thumbnail": false, "licensetype": "license_11", "mimetype": "application/pdf", "size": 3000000.0, "url": {"label": "本文", "url": "https://ir.soken.ac.jp/record/482/files/乙62_本文.pdf"}, "version_id": "ee51cabe-00d0-4069-946f-9e3b2505de71"}]}, "item_language": {"attribute_name": "言語", "attribute_value_mlt": [{"subitem_language": "jpn"}]}, "item_resource_type": {"attribute_name": "資源タイプ", "attribute_value_mlt": [{"resourcetype": "thesis", "resourceuri": "http://purl.org/coar/resource_type/c_46ec"}]}, "item_title": "高速・可逆な実時間データ圧縮アルゴリズムの開発研究", "item_titles": {"attribute_name": "タイトル", "attribute_value_mlt": [{"subitem_title": "高速・可逆な実時間データ圧縮アルゴリズムの開発研究"}]}, "item_type_id": "1", "owner": "1", "path": ["12"], "permalink_uri": "https://ir.soken.ac.jp/records/482", "pubdate": {"attribute_name": "公開日", "attribute_value": "2010-02-22"}, "publish_date": "2010-02-22", "publish_status": "0", "recid": "482", "relation": {}, "relation_version_is_last": true, "title": ["高速・可逆な実時間データ圧縮アルゴリズムの開発研究"], "weko_shared_id": 1}
高速・可逆な実時間データ圧縮アルゴリズムの開発研究
https://ir.soken.ac.jp/records/482
https://ir.soken.ac.jp/records/482caa1dc7d-94b2-4dd3-83aa-27f07c4243f7
名前 / ファイル | ライセンス | アクション |
---|---|---|
要旨・審査要旨 / Abstract, Screening Result (447.8 kB)
|
||
本文 (3.0 MB)
|
Item type | 学位論文 / Thesis or Dissertation(1) | |||||
---|---|---|---|---|---|---|
公開日 | 2010-02-22 | |||||
タイトル | ||||||
タイトル | 高速・可逆な実時間データ圧縮アルゴリズムの開発研究 | |||||
言語 | ||||||
言語 | jpn | |||||
資源タイプ | ||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_46ec | |||||
資源タイプ | thesis | |||||
著者名 |
奥村, 晴彦
× 奥村, 晴彦 |
|||||
フリガナ |
オクムラ, ハルヒコ
× オクムラ, ハルヒコ |
|||||
著者 |
OKUMURA, Haruhiko
× OKUMURA, Haruhiko |
|||||
学位授与機関 | ||||||
学位授与機関名 | 総合研究大学院大学 | |||||
学位名 | ||||||
学位名 | 博士(学術) | |||||
学位記番号 | ||||||
内容記述タイプ | Other | |||||
内容記述 | 総研大乙第62号 | |||||
研究科 | ||||||
値 | 生命科学研究科 | |||||
専攻 | ||||||
値 | 10 核融合科学専攻 | |||||
学位授与年月日 | ||||||
学位授与年月日 | 1999-03-24 | |||||
学位授与年度 | ||||||
1998 | ||||||
要旨 | ||||||
内容記述タイプ | Other | |||||
内容記述 | 核融合科学研究所の制御データ処理装置は、著者達が平成5年から共同研究として進めてきた「ワークステーションを用いたデータ収集・解析・制御システムの研究」の成果として開発されたものである。これは、大規模システムに対応した構成を取り、容易にCHの拡大を計る事が出来るシステムであり、アナログデータを増幅した後、アナログ・デジタル変換器(ADC)でサンプリング及びデジタイズを行い、多チャンネルの時系列データとして計算機に取り込む。これをバイナリーファイルとして保存する、データベース管理ソフトに登録すると同時にネットワークに実時間配送し、WWWブラウザーによってユーザーがデータ取り込むことが出来るシステムであり、今後の大型システムでのデータ処理システムの一つの大きな方向を示す形となった。<br /> さて、このようなシステムを考える場合、データ量が膨大となり、データの保存・転送のコストが無視できない事が予測される。そのために、圧縮によってデータ量が数分の1になれば、データ保存用のハードディスクなどの費用は数分の1になると同時にネットワークの輻榛(混雑)も数分の1に留めることが出来る。この理由によりデータ圧縮の研究を開始した。<br /> データ圧縮の技術は、情報量の損失のない可逆圧縮と、情報量の損失のある非可逆圧縮の2種類があり、後者は近年マルチメディアへの応用のために盛んに研究が行われているが、計測データに利用することは出来ない。更に、処理形態としては、実時間処理とバッチ処理があり、後者は従来から研究が広く行われてきたが、当然ながら実時間でネットワークを介して監視するデータは高速の実時間圧縮が必要になる。以上の要請のために、今回新たに高速・実時間・可逆なデータ圧縮アルゴリズムを開発し、コーディングに成功し、核融合科学研究所のデータに適用した結果を以下に述べる。<br /> データ圧縮の研究は1948年のShannonの情報理論に端を発し、その後、彼の学生であったHuffmanによって符号化による圧縮方法が考案された。現在のすべての符号化による圧縮はHuffmanにその基礎を置く。その後、1976年にRissanen他によって算術符号化が開発されるが、理解することに多大な努力を要することもあり、それほど一般化されなかった。一方、その後パーソナルコンピュータの発達もあり、Zip-LempelによってLX77,LZ78と言われる圧縮ソフトが1977年及び78年に開発され、一般に利用されるようになった。その後、WelchによってLZ78の改良が行われ、LZWと言われるコードが作られた。一方、著者等は、1988年にLZ77をベースに圧縮ソフトの開発を始め、その年に著者はLZARIを発表し、吉崎はLZHUF、LZarcを発表し、広く日本でも利用されるようになった。そして、1989年に著者は現在広く利用されているLHAと言われるソフトのアルゴリズムを発表し、1990年にC言語で書かれた圧縮ツールを発表した。そして、吉崎がLHAとして完成し、広く利用されるようになった。これとほぼ同じアルゴリズムのソフトとしては、フランスのJean-loup Gaillyによるgzipがある。<br /> さて、圧縮アルゴリズムとして上記に書いた要請があるため、以上の今までの圧縮アルゴリズムを検討し、2つの方法を採用することにした。一つはHuffmanの符号化でり、もう一つはデータの時間的変化を直前の数点のデータから予測する方法を組み合わせた方法である。従って、この方法は予測誤差符号化と言うことが出来る。具体的には、直前の数点のデータから次のデータを予測し、それからの誤差の分布を正規分布及びLaplace分布を用いて、予測誤差の分布グラフを作る・実際のデータとの比較を行うと、誤差分布は正規分布とLaplace分布の間位になっている。これは、時折、急激に変化するデータがあり、そのため予測誤差の2乗和の平均分散を推定すると、分布の中央部の度数分布から推定した分散より大きめの値を得るからである。そして、そのようにして得た分布データを長さ制限のある符号に変換する。ここでは8ビットに制限し、符号化を行った。このような、長さ制限のある符号化を行ったのは最初にLarmore and Hirschbergであり、比較的高速でメモリーを余り使わない効率の良い圧縮方法として知られている。しかし、そのような方法でも大変手間のかかる方法であり、実際に利用される符号は一部に限られるので、より単純で高速な方法を考案した。それは、場合分けを8ビットに制限した時には、406通りしかないので、予めその表を作っておき符号化手順を高速に行うことである。このような方法をとっても1シンボル当たり0.047ビットの損しかなく、これは最悪の場合であるため、実際にはほとんど影響は出ないからである。<br /> 以上のアルゴリズムをコーディングし、実際の核融合科学研究所の大型ヘリカル装置のデータの圧縮を行った。実際のデータは熱電対で測定した温度、歪ゲージで測定した歪、マイクロ波の出力、磁場、コイル電流及び電圧、プラズマからの輻射などでからなるデータ群である。急激に変化するデータはやはり圧縮比はそれほど大きくなく、16ビットの生データに対して、8-10ビット程度になるが、変化の少ないデータでは2ビット以下に圧縮された。そして、それら全体を通じて、元データ(複数の性質の違ったデータをすべて含む)が8.74MBに対して、通常バッチファイルの圧縮に利用されているAip,LHAが4.8MB程度に圧縮し、今回開発したソフト(NIFSqと言う)は、2.00MBに圧縮することができた。従って、従来のソフトより圧縮比で2倍程度性能が良い。更に、圧縮時間であるが、CPUのクロックが400MHzのPentium-II,のパーソナルコンピュータ(オペレーティングシステムはLinux)ではZip,LHAに比べて3分の1から4分の1以下の時間で行うことが出来た。従って、従来のソフトに比べてかなり高速なったことが分かった。そして、適応型のソフトのために、現状のデータ処理システムではほとんど無制限なCHまで圧縮可能のソフトとなった。<br /> 以上より、当初の要請は満足されたと考えるべきである。今後の課題はアルゴリズムの最適化及びユーザーインターフェースを改良した上でMacintoshなども含めた計算機環境での利用を可能にし、C++やJavaに書き直すことなどである。 | |||||
所蔵 | ||||||
値 | 有 | |||||
フォーマット | ||||||
内容記述タイプ | Other | |||||
内容記述 | application/pdf |