Hartley (jednotka) - Hartley (unit)
Jednotky z informace |
|
The Hartley (symbol Jelen), také nazývaný a zákaznebo dit (zkratka pro decimal digto),[1][2][3] je logaritmická jednotka který měří informace nebo entropie, na základě základny 10 logaritmy a pravomoci 10. Jeden hartley je informační obsah události, pokud pravděpodobnost této události je1⁄10.[4] Rovná se tedy informacím obsaženým v jednom desetinná číslice (nebo dit), za předpokladu a priori ekvipravděpodobnost každé možné hodnoty. Je pojmenován po Ralph Hartley.
Li základ 2 logaritmy a místo toho se použijí mocniny 2, pak je jednotkou informace bit nebo Shannon, což je informační obsah události, pokud pravděpodobnost této události je1⁄2. Přirozené logaritmy a pravomoci E definovat nat.
Jeden zákaz odpovídá ln (10) nat = log2(10) bit nebo Sh nebo přibližně 2,303 nat nebo 3,322 bit.[A] A deciban je desetina zákazu (nebo přibližně 0,332 bitů); název je vytvořen z zákaz podle Předpona SI rozhodnout.
I když neexistuje žádný přidružený Jednotka SI, informační entropie je součástí Mezinárodní soustava veličin, definované mezinárodní normou IEC 80000-13 z Mezinárodní elektrotechnická komise.
Dějiny
Termín Hartley je pojmenován po Ralph Hartley, který v roce 1928 navrhl měřit informace pomocí logaritmické báze rovnající se počtu rozlišitelných stavů v její reprezentaci, což by byl základ 10 pro desetinnou číslici.[5][6]
The zákaz a deciban byly vynalezeny Alan Turing s Irving John "Jack" Dobře v roce 1940 měřit množství informací, které by bylo možné odvodit kódovači na Bletchley Park za použití Banburismus postup k určení každodenního neznámého nastavení německého námořnictva Hádanka šifrovací stroj. Název byl inspirován obrovskými listy karet vytištěnými ve městě Banbury asi 30 mil daleko, které byly použity v tomto procesu.[7]
Dobrý argumentoval, že postupné shrnutí decibany vybudovat míru váhy důkazů ve prospěch hypotézy, je v zásadě Bayesovský závěr.[7] Donald A. Gillies, nicméně, argumentoval zákaz je ve skutečnosti stejný jako Karl Popper míra závažnosti zkoušky.[8]
Využití jako jednotka kurzu
Deciban je obzvláště užitečná jednotka pro log-šance, zejména jako měřítko informací v Bayesovy faktory, poměry šancí (poměr šancí, takže log je rozdíl log-šancí), nebo váhy důkazů. 10 decibanů odpovídá kurzu 10: 1; 20 decibanů na šanci 100: 1 atd. Podle Gooda je změna váhy důkazů o 1 decibanu (tj. Změna pravděpodobnosti z přibližně na 5: 4) zhruba tak jemná, jak lze rozumně očekávat u lidí kvantifikovat jejich stupeň víry v hypotézu.[9]
Kurzy odpovídající celočíselným decibanům lze často dobře aproximovat jednoduchými celočíselnými poměry; tyto jsou shrnuty níže. Hodnota na dvě desetinná místa, jednoduchá aproximace (do přibližně 5%), s přesnější aproximací (do 1%), pokud je jednoduché nepřesné:
decibany | přesný hodnota | Cca. hodnota | Cca. poměr | přesný poměr | pravděpodobnost |
---|---|---|---|---|---|
0 | 100/10 | 1 | 1:1 | 50% | |
1 | 101/10 | 1.26 | 5:4 | 56% | |
2 | 102/10 | 1.58 | 3:2 | 8:5 | 61% |
3 | 103/10 | 2.00 | 2:1 | 67% | |
4 | 104/10 | 2.51 | 5:2 | 71.5% | |
5 | 105/10 | 3.16 | 3:1 | 19:6, 16:5 | 76% |
6 | 106/10 | 3.98 | 4:1 | 80% | |
7 | 107/10 | 5.01 | 5:1 | 83% | |
8 | 108/10 | 6.31 | 6:1 | 19:3, 25:4 | 86% |
9 | 109/10 | 7.94 | 8:1 | 89% | |
10 | 1010/10 | 10 | 10:1 | 91% |
Viz také
Poznámky
- ^ Tato hodnota přibližně10⁄3, ale o něco méně, lze pochopit jednoduše proto, že : 3 desetinná místa jsou mírně méně informace než 10 binárních číslic, takže 1 desetinná číslice je mírně méně než10⁄3 binární číslice.
Reference
- ^ Klar, Rainer (01.02.1970). „1.8.1 Begriffe aus der Informationstheorie“ [1.8.1 Pojmy používané v teorii informací]. Digitale Rechenautomaten - Eine Einführung [Digitální počítače - úvod]. Sammlung Göschen (v němčině). 1241 / 1241a (1. vyd.). Berlín, Německo: Walter de Gruyter & Co. / G. J. Göschen'sche Verlagsbuchhandlung . str. 35. ISBN 3-11-083160-0. ISBN 978-3-11-083160-3. Archiv-Nr. 7990709. Archivováno od původního dne 2020-04-18. Citováno 2020-04-13. (205 stran) (Pozn. Dotisk prvního vydání z roku 2019 je k dispozici na adrese ISBN 3-11002793-3, 978-3-11002793-8. Přepracovaný a rozšířený 4. vydání existuje také.)
- ^ Klar, Rainer (1989) [01.01.1988]. „1.9.1 Begriffe aus der Informationstheorie“ [1.9.1 Pojmy používané v teorii informací]. Digitale Rechenautomaten - Eine Einführung in die Struktur von Computerhardware [Digitální počítače - Úvod do struktury počítačového hardwaru]. Sammlung Göschen (v němčině). 2050 (4. přepracované vydání). Berlín, Německo: Walter de Gruyter & Co. str. 57. ISBN 3-11011700-2. ISBN 978-3-11011700-4. (320 stránek)
- ^ Lukoff, Herman (1979). Od bitů k bitům: Osobní historie elektronického počítače. Portland, Oregon, USA: Robotics Press. ISBN 0-89661-002-0. LCCN 79-90567.
- ^ „IEC 80000-13: 2008“. Mezinárodní organizace pro normalizaci (ISO). Citováno 2013-07-21.
- ^ Hartley, Ralph Vinton Lyon (Červenec 1928). „Předávání informací“ (PDF). Technický deník Bell System. VII (3): 535–563. Citováno 2008-03-27.
- ^ Reza, Fazlollah M. (1994). Úvod do teorie informace. New York: Dover Publications. ISBN 0-486-68210-2.
- ^ A b Dobře, Irvinge Johne (1979). „Studie v historii pravděpodobnosti a statistiky. XXXVII Statistická práce A. M. Turinga ve druhé světové válce“. Biometrika. 66 (2): 393–396. doi:10.1093 / biomet / 66.2.393. PAN 0548210.
- ^ Gillies, Donald A. (1990). „Turingova dobrá váha důkazní funkce a Popperova míra závažnosti testu“. British Journal for the Philosophy of Science. 41 (1): 143–146. doi:10.1093 / bjps / 41.1.143. JSTOR 688010. PAN 0055678.
- ^ Dobře, Irvinge Johne (1985). „Weight of Evidence: A Brief Survey“ (PDF). Bayesovské statistiky. 2: 253. Citováno 2012-12-13.