Informační dimenze - Information dimension - Wikipedia
v teorie informace, informační dimenze je informační měřítko pro náhodné vektory v Euklidovský prostor, na základě normalizované entropie jemně kvantovaných verzí náhodných vektorů. Tento koncept poprvé představil Alfréd Rényi v roce 1959.[1]
V roce 2010 Wu a Verdú dali operativní charakterizaci Rényiho informační dimenze jako základní hranice téměř bezztrátové komprese dat pro analogové zdroje pod různými omezeními pravidelnosti kodéru / dekodéru.
Nechat být libovolná náhodná proměnná se skutečnou hodnotou. Dáno kladné celé číslo , vytvoříme novou diskrétní náhodnou proměnnou
Kde je operátor podlahy, který převádí reálné číslo na největší celé číslo menší než to. Pak
a
se nazývají spodní a horní informační dimenze resp. Když , nazýváme tuto hodnotovou informační dimenzi ,
Některé důležité vlastnosti informační dimenze :
Pokud je mírný stav je splněno, máme .
Pro -dimenzionální náhodný vektor , lze první vlastnost zobecnit na .
Při omezení na exponenciální posloupnost stačí vypočítat horní a dolní informační rozměr .
a zůstanou nezměněny, pokud jsou při kvantování použity funkce zaokrouhlování nebo stropu.
-Dimenzionální entropie
Pokud je to informační rozměr existuje, lze definovat -rozměrná entropie této distribuce pomocí
za předpokladu, že limit existuje. Li , nula-dimenzionální entropie se rovná standardu Shannonova entropie. Pro celočíselnou dimenzi , -dimenzionální entropie je -násobný integrál definující příslušné diferenciální entropie.
kde a ; je čistě atomová míra pravděpodobnosti (diskrétní část), je absolutně kontinuální míra pravděpodobnosti a je míra pravděpodobnosti singulární vzhledem k Lebesgueově míře, ale bez atomů (singulární část) být náhodná proměnná taková . Předpokládejme distribuci lze reprezentovat jako
kde je diskrétní míra a je absolutně kontinuální míra pravděpodobnosti s . Pak
Navíc vzhledem k tomu a diferenciální entropie , -Dimenzionální entropie je jednoduše dána
kde je Shannonova entropie diskrétní náhodné proměnné s a a dané
Signál projdeme půlvlnou usměrňovač který převede všechny záporné hodnoty na 0 a udržuje všechny ostatní hodnoty. Poloviční vlnový usměrňovač lze charakterizovat funkcí
Poté má signál na výstupu usměrňovače a usměrněné Gaussovo rozdělení. Vyznačuje se atomovou hmotností 0,5 a má Gaussian PDF pro všechny .
S touto distribucí směsi použijeme výše uvedený vzorec a získáme informační dimenzi rozdělení a vypočítat -rozměrná entropie.
Normalizovaná pravá část nulové střední Gaussovy distribuce má entropii , proto
Připojení k diferenciální entropii
Je to zobrazeno [3] že informační dimenze a diferenciální entropie jsou úzce propojeny.
Nechat být pozitivní náhodná proměnná s hustotou .
Předpokládejme, že rozdělíme rozsah do košů délky . Věta o střední hodnotě existuje hodnota uvnitř každého koše tak, že
Zvažte diskretizovanou náhodnou proměnnou -li .
Pravděpodobnost každého bodu podpory je
Entropie této proměnné je
Pokud jsme nastavili a pak děláme přesně stejnou kvantizaci jako definice informační dimenze. Protože opětovné značení událostí diskrétní náhodné proměnné nemění její entropii, máme
To přináší
a kdy je dostatečně velký,
což je diferenciální entropie spojité náhodné proměnné. Zejména pokud je tedy Riemann integrovatelný
Srovnání s -dimenzionální entropie ukazuje, že diferenciální entropie je přesně jednorozměrná entropie
Ve skutečnosti to lze zobecnit na vyšší dimenze. Rényi ukazuje, že pokud je náhodný vektor v a -rozměrný euklidovský prostor s absolutně spojitým rozdělením s funkcí hustoty pravděpodobnosti a konečná entropie celočíselné části (), my máme
a
pokud integrál existuje.
Bezztrátová komprese dat
Informační dimenze distribuce poskytuje teoretickou horní hranici rychlosti komprese, pokud chceme komprimovat proměnnou pocházející z této distribuce. V kontextu bezztrátové komprese dat se snažíme komprimovat reálné číslo s méně reálným číslem, které má nekonečnou přesnost.
Hlavním cílem bezztrátové komprese dat je najít efektivní reprezentace pro zdrojové realizace podle . A kód pro je pár mapování:
kodér: který převádí informace ze zdroje na symboly pro komunikaci nebo ukládání;
dekodér: je obrácený proces, převod kódových symbolů zpět do formy, které příjemce rozumí.
Pravděpodobnost chyby bloku je .
Definovat být infimum z taková, že existuje posloupnost kódy takové, že pro všechny dostatečně velké .
Tak v zásadě udává poměr mezi délkou kódu a délkou zdroje, ukazuje, jak dobrý je konkrétní pár dekodéru dekodéru. Základní limity v bezztrátovém kódování zdroje jsou následující.[4]
Zvažte funkci kontinuálního kodéru s funkcí nepřetržitého dekodéru . Pokud nebudeme ukládat žádnou pravidelnost a , vzhledem k bohaté struktuře , máme minimum - dosažitelná rychlost pro všechny . To znamená, že lze vytvořit pár kodér-dekodér s rychlostí komprese nekonečna.
Abychom získali nějaké netriviální a smysluplné závěry, dovolme minimum dosažitelná rychlost pro lineární kodér a dekodér Borel. Je-li náhodná proměnná má distribuci, která je směsicí diskrétní a spojité části. Pak pro všechny Předpokládejme, že omezíme dekodér na Lipschitzovu spojitou funkci a drží, pak minimum dosažitelná míra pro všechny .
Rényi, A. (březen 1959). "O dimenzi a entropii rozdělení pravděpodobnosti". Acta Mathematica Academiae Scientiarum Hungaricae. 10 (1–2): 193–215. doi:10.1007 / BF02063299. ISSN0001-5954.CS1 maint: ref = harv (odkaz)