Rényiho entropie - Rényi entropy
v teorie informace, Rényiho entropie zobecňuje Hartleyova entropie, Shannonova entropie, kolizní entropie a min. entropie. Entropie kvantifikují rozmanitost, nejistotu nebo náhodnost systému. Entropie je pojmenována po Alfréd Rényi.[1] V kontextu fraktální dimenze odhad, Rényiho entropie tvoří základ konceptu zobecněné rozměry.[2]
Rényiho entropie je důležitá v ekologii a statistice index rozmanitosti. Rényiho entropie je také důležitá v kvantová informace, kde jej lze použít jako měřítko zapletení. V modelu spinového řetězce Heisenberg XY je Rényiho entropie jako funkce α lze vypočítat výslovně na základě skutečnosti, že se jedná o automatická funkce s ohledem na konkrétní podskupinu EU modulární skupina.[3][4] v teoretická informatika, min-entropie se používá v kontextu extraktory náhodnosti.
Definice
Rényiho entropie řádu , kde a , je definován jako
- .[1]
Tady, je diskrétní náhodná proměnná s možnými výsledky a odpovídající pravděpodobnosti pro . The logaritmus se běžně považuje za základnu 2, zejména v kontextu teorie informace kde bity Pokud jsou pravděpodobnosti pro všechny , pak jsou všechny Rényiho entropie distribuce stejné: Obecně platí, že pro všechny diskrétní náhodné proměnné , je nerostoucí funkce v .
Aplikace často využívají následující vztah mezi Rényiho entropií a p-norma vektoru pravděpodobností:
- .
Zde diskrétní rozdělení pravděpodobnosti je interpretován jako vektor v s a .
Rényiho entropie pro všechny je Schur konkávní.
Speciální případy

Tak jako α blíží se nule, Rényiho entropie stále více váží všechny možné události rovnoměrněji, bez ohledu na jejich pravděpodobnost. V limitu pro α → 0, Rényiho entropie je pouze logaritmem velikosti podpory X. Limit pro α → 1 je Shannonova entropie. Tak jako α blíží nekonečno, Rényiho entropie je stále více určována událostmi s nejvyšší pravděpodobností.
Hartley nebo max-entropie
Pokud jsou pravděpodobnosti nenulové,[5] je logaritmus mohutnost z X, někdy nazývaný Hartleyova entropie z X,
Shannonova entropie
Mezní hodnota tak jako α → 1 je Shannonova entropie:[6]
Kolizní entropie
Kolizní entropie, někdy jen nazývaný „Rényiho entropie“, odkazuje na případ α = 2,
kde X a Y jsou nezávislé a identicky distribuované.
Min. Entropie
V limitu jako , Rényiho entropie konverguje k min. entropie :
Ekvivalentně, min-entropie je největší reálné číslo b tak, že všechny události nastanou s největší pravděpodobností .
Název min. entropie vyplývá ze skutečnosti, že se jedná o nejmenší míru entropie v rodině Rényiho entropií. v tomto smyslu jde o nejsilnější způsob měření informačního obsahu diskrétní náhodné proměnné. Zejména min-entropie nikdy není větší než Shannonova entropie.
Min-entropie má důležité aplikace pro extraktory náhodnosti v teoretická informatika: Extraktoři jsou schopni extrahovat náhodnost z náhodných zdrojů, které mají velkou min-entropii; jen mít velký Shannonova entropie pro tento úkol nestačí.
Nerovnosti mezi různými hodnotami α
Že v roce neroste pro jakékoli dané rozdělení pravděpodobností , což lze prokázat diferenciací,[7] tak jako
což je úměrné Kullback – Leiblerova divergence (což je vždy nezáporné), kde.
V konkrétních případech může nerovnost prokázat také Jensenova nerovnost:[8][9]
Pro hodnoty , platí také nerovnosti v opačném směru. Zejména máme[10][Citace je zapotřebí ]
Na druhou stranu Shannonova entropie může být libovolně vysoká pro náhodnou proměnnou která má danou min-entropii.[Citace je zapotřebí ]
Rényiho divergence
Kromě absolutních Rényiho entropií definoval Rényi také spektrum divergenčních opatření zobecňujících Kullback – Leiblerova divergence.[11]
The Rényiho divergence řádu α nebo alfa-divergence distribuce P z distribuce Q je definován jako
když 0 < α < ∞ a α ≠ 1. Můžeme definovat Rényiho divergenci pro speciální hodnoty α = 0, 1, ∞ přijetím limitu, zejména limitu α → 1 dává divergenci Kullback-Leibler.
Některé speciální případy:
- : minus pravděpodobnost protokolu pod Q že pi > 0;
- : mínus dvojnásobek logaritmu Bhattacharyya koeficient; (Nielsen & Boltz (2010) )
- : protokol očekávaného poměru pravděpodobností;
- : protokol maximálního poměru pravděpodobností.
Rényiho divergence je skutečně divergence, což znamená jednoduše to je větší než nebo rovno nule a nula pouze když P = Q. Pro jakékoli pevné distribuce P a Q, Rényiho divergence neklesá jako funkce jejího řádu α, a je kontinuální na množině α pro které je konečný.[11]
Finanční interpretace
Na dvojici rozdělení pravděpodobnosti lze pohlížet jako na hazardní hru, ve které jedno z rozdělení definuje oficiální pravděpodobnost a druhé obsahuje skutečné pravděpodobnosti. Znalost skutečných pravděpodobností umožňuje hráči těžit ze hry. Očekávaná míra zisku souvisí s Rényiho divergencí následovně[12]
kde je distribuce definující oficiální kurzy (tj. „trh“) pro hru, je investorem věřená distribuce a je averze k riziku investora (relativní averze k riziku Arrow-Pratt).
Pokud je skutečná distribuce (nemusí se nutně shodovat s vírou investora ), dlouhodobá realizovaná míra konverguje ke skutečnému očekávání, které má podobnou matematickou strukturu[13]
Proč α = 1 je zvláštní
Hodnota α = 1, což dává Shannonova entropie a Kullback – Leiblerova divergence, je zvláštní, protože je pouze na α = 1 že řetězové pravidlo podmíněné pravděpodobnosti platí přesně:
pro absolutní entropie a
pro relativní entropie.
To zejména znamená, že pokud hledáme distribuci p(X, A) což minimalizuje odchylku od nějakého základního předchozího opatření m(X, A), a získáváme nové informace, které mají vliv pouze na distribuci A, pak distribuce p(X|A) Zůstává m(X|A), beze změny.
Ostatní Rényiho divergence splňují kritéria kladnosti a kontinuity; být invariantní při transformacích souřadnic 1: 1; a aditivní kombinace, když A a X jsou nezávislé, takže pokud p(A, X) = p(A)p(X), pak
a
Silnější vlastnosti α = 1 množství, která umožňují definici podmíněné informace a vzájemné informace z teorie komunikace, může být v jiných aplikacích velmi důležitý nebo zcela nedůležitý v závislosti na požadavcích těchto aplikací.
Exponenciální rodiny
Rényi entropie a divergence pro exponenciální rodina připustit jednoduché výrazy[14]
a
kde
je Jensenův rozdíl divergence.
Fyzický význam
Rényiho entropie v kvantové fyzice se nepovažuje za pozorovatelný, kvůli jeho nelineární závislosti na matici hustoty. (Tato nelineární závislost platí i ve zvláštním případě Shannonovy entropie.) Může jí však být dán provozní význam prostřednictvím dvojnásobných měření (také známých jako statistika úplného počítání) přenosů energie.
Hranice Rényiho entropie as je von Neumannova entropie.
Viz také
Poznámky
- ^ A b Rényi (1961)
- ^ Wolfram (2002) poznámka b
- ^ Franchini (2008)
- ^ Jeho (2010)
- ^ RFC 4086, strana 6
- ^ Bromiley, Thacker & Bouhova-Thacker (2004)
- ^ Beck (1993)
- ^ drží protože .
- ^ drží protože .
- ^ drží protože
- ^ A b Van Erven, Tim; Harremoës, Peter (2014). „Rényi Divergence and Kullback – Leibler Divergence“. Transakce IEEE na teorii informací. 60 (7): 3797–3820. arXiv:1206.2459. doi:10.1109 / TIT.2014.2320500.
- ^ Soklakov (2018)
- ^ Soklakov (2018)
- ^ Nielsen & Nock (2011)
Reference
- Beck, Christian; Schlögl, Friedrich (1993). Termodynamika chaotických systémů: úvod. Cambridge University Press. ISBN 0521433673.
- Jizba, P .; Arimitsu, T. (2004). „Svět podle Rényiho: Termodynamika multifraktálních systémů“. Annals of Physics. 312: 17–59. arXiv:cond-mat / 0207707. Bibcode:2004AnPhy.312 ... 17J. doi:10.1016 / j.aop.2004.01.002.CS1 maint: ref = harv (odkaz)
- Jizba, P .; Arimitsu, T. (2004). „O pozorovatelnosti Rényiho entropie“. Fyzický přehled E. 69 (2): 026128. arXiv:cond-mat / 0307698. Bibcode:2004PhRvE..69b6128J. doi:10.1103 / PhysRevE.69.026128.CS1 maint: ref = harv (odkaz)
- Bromiley, P.A .; Thacker, N.A .; Bouhova-Thacker, E. (2004), Shannon Entropy, Rényi Entropy a informace (PDF)CS1 maint: ref = harv (odkaz)
- Franchini, F .; Jeho, A. R .; Korepin, V. E. (2008). „Rényiho entropie jako míra zapletení do kvantového spinového řetězce“. Journal of Physics A: Mathematical and Theoretical. 41 (25302): 025302. arXiv:0707.2534. Bibcode:2008JPhA ... 41b5302F. doi:10.1088/1751-8113/41/2/025302.CS1 maint: ref = harv (odkaz)
- "Rényiho test", Encyclopedia of Mathematics, Stiskněte EMS, 2001 [1994]
- Hero, A. O .; Michael, O .; Gorman, J. (2002). „Alfa-divergence pro klasifikaci, indexování a vyhledávání“ (PDF). CiteSeerX 10.1.1.373.2763. Citovat deník vyžaduje
| deník =
(Pomoc)CS1 maint: ref = harv (odkaz) - Jeho, A. R .; Korepin, V. E. (2010). "Zobecněná entropie Heisenbergova spinového řetězce". Teoretická a matematická fyzika. 164 (3): 1136–1139. Bibcode:2010TMP ... 164.1136I. doi:10.1007 / s11232-010-0091-6.CS1 maint: ref = harv (odkaz)
- Nielsen, F .; Boltz, S. (2010). „Centroidy Burbea-Rao a Bhattacharyya“. Transakce IEEE na teorii informací. 57 (8): 5455–5466. arXiv:1004.5049. doi:10.1109 / TIT.2011.2159046.CS1 maint: ref = harv (odkaz)
- Nielsen, Frank; Nock, Richard (2012). „Uzavřený výraz pro sharma – mittální entropii exponenciálních rodin“. Journal of Physics A. 45 (3): 032003. arXiv:1112.4221. Bibcode:2012JPhA ... 45c2003N. doi:10.1088/1751-8113/45/3/032003.CS1 maint: ref = harv (odkaz)
- Nielsen, Frank; Nock, Richard (2011). "O Rényi a Tsallis entropiích a divergencích pro exponenciální rodiny". Journal of Physics A. 45 (3): 032003. arXiv:1105.3259. Bibcode:2012JPhA ... 45c2003N. doi:10.1088/1751-8113/45/3/032003.CS1 maint: ref = harv (odkaz)
- Rényi, Alfréd (1961). „O míře informace a entropii“ (PDF). Proceedings of the quarter Berkeley Symposium on Mathematics, Statistics and Probability 1960. str. 547–561.CS1 maint: ref = harv (odkaz)
- Rosso, O. A. (2006). "Analýza EEG pomocí informačních nástrojů založených na vlnkách". Journal of Neuroscience Methods. 153 (2): 163–182. doi:10.1016 / j.jneumeth.2005.10.009. PMID 16675027.
- Zachos, C. K. (2007). "Klasická vazba na kvantovou entropii". Journal of Physics A. 40 (21): F407. arXiv:hep-th / 0609148. Bibcode:2007JPhA ... 40..407Z. doi:10.1088 / 1751-8113 / 40/21 / F02.
- Nazarov, Y. (2011). „Toky Rényiho entropií“. Fyzický přehled B. 84 (10): 205437. arXiv:1108.3537. Bibcode:2015PhRvB..91j4303A. doi:10.1103 / PhysRevB.91.104303.
- Ansari, Mohammad H .; Nazarov, Yuli V. (2015). „Rényiho entropie proudí z kvantových tepelných strojů“. Fyzický přehled B. 91 (10): 104303. arXiv:1408.3910. Bibcode:2015PhRvB..91j4303A. doi:10.1103 / PhysRevB.91.104303.
- Ansari, Mohammad H .; Nazarov, Yuli V. (2015). "Přesná korespondence mezi Rényiho entropickými toky a fyzickými toky". Fyzický přehled B. 91 (17): 174307. arXiv:1502.08020. Bibcode:2015PhRvB..91q4307A. doi:10.1103 / PhysRevB.91.174307.
- Soklakov, A. N. (2018). „Ekonomika neshody - finanční intuice pro Rényiho divergenci“. arXiv:1811.08308. Citovat deník vyžaduje
| deník =
(Pomoc) - Ansari, Mohammad H .; van Steensel, Alwin; Nazarov, Yuli V. (2019). "Produkce entropie v kvantu je jiná". Entropie. 21 (9): 854. arXiv:1907.09241. doi:10,3390 / e21090854.
- Wolfram, Stephen (2002). Nový druh vědy. Wolfram Media. ISBN 1579550088.