ハートレー (単位)

出典: フリー百科事典『ウィキペディア(Wikipedia)』
ナビゲーションに移動 検索に移動

ハートレー(hartley、記号 Hart)は、IEC 80000-13で定められた情報量およびエントロピー単位である。本項目では関連のあるデータ量の単位であるディット(dit)またはバン(ban)についても説明する。

1ハートレーは、起こる確率110の出来事が持っている情報量と定義される[1]

1ハートレーの情報量は、1桁の十進数(1ディットまたは1バン)によって記憶することが出来る。n桁の十進数(nディット)の各桁の数値が一様ランダムである場合に、その十進数が持つ情報量はnハートレーであり、各桁の数値が一様ランダムでない場合は、情報量はnハートレー未満になる。

ディットまたはバンはデータ量の単位であり、厳密にはハートレーとは異なる。バンの10分の1をデシバン(deciban)という。

別の言い方をすると、確率の逆数について、10を底とする対数常用対数)を取ったものがシャノンである。2を底とする二進対数を使用したものをシャノン(shannon)、ネイピア数(e)を底とする自然対数を使用したものをナット(nat)という。ハートレー・シャノン・ナットの換算は以下のようになる。

1 hartley ≈ 3.322 shannon[注釈 1] ≈ 2.303 nat

歴史[編集]

ハートレーという単位名称はラルフ・ハートレーに因む。彼は1928年に、情報量の測定に、その表現の区別可能な状態の数に等しい対数の底を使用することを提案した[2][3]

バン(ban)とデシバン(deciban)は、1940年にアラン・チューリングI・J・グッド英語版によって発明された。この単位は、毎日変更されるドイツ海軍の暗号機・エニグマの設定を決定するために、バンベリスムス英語版と呼ばれる手順を使用してブレッチリー・パークの暗号解読者によって推定される情報量を測定するのに使用された。その名前は、その過程で使われていた、約30マイル離れたバンベリーの町で印刷された膨大な数枚のカードから名付けられたものである[4]

グッドは、仮説を支持する証拠の重みの尺度を構築するためのデシバンの逐次総和は本質的にベイズ推定であると主張した[4]。しかし、ドナルド・A・ギリース英語版は、バンは事実上、カール・ポパーによる試行の重要度の尺度と同じであると主張した[5]

ディット(dit)はdecimal digitの略である[6]

オッズの単位としての使用法[編集]

デシバンは、特にベイズ因子オッズ比(その対数はロジットの差に等しい)、証拠の重みの情報の尺度として、ロジット(ログオッズ)の特に有用な単位である。10デシバンは10:1のオッズに、20デシバンは100:1のオッズに対応する。グッドによると、1デシバンの証拠の重みの変化(例えば1:1から約5:4へのオッズの変化)は、人間が仮説に対する確信の度合いを定量化することが合理的に予想されることができるくらい細かい[7]

整数値のデシバンに対応するオッズは、以下に示すように単純な整数比でよく近似できる。

デシバン 正確
な値
およそ
の値
およそ
の比率
正確な
比率
確率
0 100/10 1 1:1 50%
1 101/10 1.26 5:4 56%
2 102/10 1.58 3:2 8:5 61%
3 103/10 2.00 2:1 67%
4 104/10 2.51 5:2 71.5%
5 105/10 3.16 3:1 19:6, 16:5 76%
6 106/10 3.98 4:1 80%
7 107/10 5.01 5:1 83%
8 108/10 6.31 6:1 19:3, 25:4 86%
9 109/10 7.94 8:1 89%
10 1010/10 10 10:1 91%

脚注[編集]

  1. ^ この値はおよそ103であるが、それよりわずかに小さい。これは、であることから容易に理解できる。3桁の十進数が持つ情報量は、10桁の二進数が持つ情報量よりわずかに少ない。よって、1桁の十進数がもつ情報量は103桁の二進数が持つ情報量よりわずかに少ない。

出典[編集]

  1. ^ IEC 80000-13:2008”. 国際標準化機構 (ISO). 2013年7月21日閲覧。
  2. ^ “Transmission of Information”. Bell System Technical Journal VII (3): 535-563. (July 1928). http://dotrose.com/etext/90_Miscellaneous/transmission_of_information_1928b.pdf 2008年3月27日閲覧。. 
  3. ^ An Introduction to Information Theory. New York: Dover Publications. (1994). ISBN 0-486-68210-2. 
  4. ^ a b “Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II”. Biometrika 66 (2): 393-396. (1979). doi:10.1093/biomet/66.2.393. MR0548210. 
  5. ^ “The Turing-Good Weight of Evidence Function and Popper's Measure of the Severity of a Test”. British Journal for the Philosophy of Science 41 (1): 143-146. (1990). doi:10.1093/bjps/41.1.143. JSTOR 688010. MR055678. 
  6. ^ From Dits to Bits: A personal history of the electronic computer. Portland, Oregon, USA: Robotics Press. (1979). ISBN 0-89661-002-0. LCCN 79--90567. 
  7. ^ “Weight of Evidence: A Brief Survey”. Bayesian Statistics 2: 253. (1985). http://www.waterboards.ca.gov/water_issues/programs/tmdl/docs/303d_policydocs/207.pdf 2012年12月13日閲覧。.