Míra relativní informace v teorii pravděpodobnosti
Vennův diagram různé aditivní a subtraktivní vztahy
informační opatření spojené s korelovanými proměnnými
a
. Oblast obsažená v obou kruzích je
společná entropie . Kruh vlevo (červený a fialový) je
individuální entropie , přičemž červená je
podmíněná entropie . Kruh vpravo (modrý a fialový) je
s modrou bytostí
. Fialová je
vzájemné informace .
v teorie informace, podmíněná entropie kvantifikuje množství informací potřebných k popisu výsledku a náhodná proměnná vzhledem k tomu, že hodnota jiné náhodné proměnné je známo. Zde se měří informace shannony, nats nebo Hartley. The entropie podmíněno je psán jako .
Definice
Podmíněná entropie daný je definován jako
| | (Rovnice 1) |
kde a označit podpůrné sady z a .
Poznámka: Je obvyklé, že výrazy a pro pevné by mělo být považováno za rovno nule. To je proto, že a [1]
Intuitivní vysvětlení definice: Podle definice kde spolupracovníci informační obsah daný , což je množství informací potřebných k popisu události daný . Podle zákona velkého počtu je aritmetický průměr velkého počtu nezávislých realizací .
Motivace
Nechat být entropie diskrétní náhodné proměnné podmíněné diskrétní náhodnou proměnnou s určitou hodnotou . Označte podpůrné sady a podle a . Nechat mít funkce pravděpodobnostní hmotnosti . Bezpodmínečná entropie se počítá jako , tj.
kde je informační obsah z výsledek z brát hodnotu . Entropie podmíněno brát hodnotu je definován analogicky podmíněné očekávání:
Všimněte si, že je výsledkem průměrování přes všechny možné hodnoty že může trvat. Také pokud je výše uvedený součet převzat vzorek , očekávaná hodnota je v některých doménách znám jako dvojsmyslnost.[2]
Dáno diskrétní náhodné proměnné s obrázkem a s obrázkem podmíněná entropie daný je definován jako vážený součet pro každou možnou hodnotu , použitím jako váhy:[3]:15
Vlastnosti
Podmíněná entropie se rovná nule
právě tehdy, pokud je hodnota je zcela určena hodnotou .
Podmíněná entropie nezávislých náhodných proměnných
Naopak, kdyby a jen kdyby a jsou nezávislé náhodné proměnné.
Řetězové pravidlo
Předpokládejme, že kombinovaný systém je určen dvěma náhodnými proměnnými a má společná entropie , to znamená, že potřebujeme v průměru kousky informace k popisu jejich přesného stavu. Teď, když se nejprve naučíme hodnotu , získali jsme kousky informací. Jednou je známo, my jen potřebujeme bity k popisu stavu celého systému. Toto množství je přesně , což dává řetězové pravidlo podmíněné entropie:
- [3]:17
Pravidlo řetězu vyplývá z výše uvedené definice podmíněné entropie:
Obecně platí pravidlo řetězu pro více náhodných proměnných:
- [3]:22
Má podobnou podobu jako řetězové pravidlo v teorii pravděpodobnosti, kromě toho, že místo násobení se používá sčítání.
Bayesovo pravidlo
Bayesovo pravidlo pro podmíněné stavy entropie
Důkaz. a . Symetrie znamená . Odečtení dvou rovnic implikuje Bayesovo pravidlo.
Li je podmíněně nezávislý z daný my máme:
Další vlastnosti
Pro všechny a :
kde je vzájemné informace mezi a .
Pro nezávislé a :
- a
Ačkoli specifická podmíněná entropie může být menší nebo větší než za dané náhodné variace z , nikdy nemůže překročit .
Podmíněná diferenciální entropie
Definice
Výše uvedená definice platí pro diskrétní náhodné proměnné. Spojitá verze diskrétní podmíněné entropie se nazývá podmíněná diferenciální (nebo kontinuální) entropie. Nechat a být spojitá náhodná proměnná s a funkce hustoty pravděpodobnosti kloubu . Diferenciální podmíněná entropie je definován jako[3]:249
| | (Rovnice 2) |
Vlastnosti
Na rozdíl od podmíněné entropie pro diskrétní náhodné proměnné může být podmíněná diferenciální entropie záporná.
Stejně jako v diskrétním případě existuje pravidlo diferenciální entropie:
- [3]:253
Všimněte si však, že toto pravidlo nemusí být pravdivé, pokud příslušné rozdílné entropie neexistují nebo jsou nekonečné.
Společná diferenciální entropie se také používá při definici vzájemné informace mezi spojitými náhodnými proměnnými:
s rovností právě tehdy a jsou nezávislé.[3]:253
Vztah k chybě odhadce
Podmíněná diferenciální entropie poskytuje dolní mez očekávané čtvercové chyby AN odhadce. Pro libovolnou náhodnou proměnnou pozorování a odhadce platí:[3]:255
To souvisí s princip nejistoty z kvantová mechanika.
Zobecnění na kvantovou teorii
v teorie kvantové informace, podmíněná entropie je zobecněna na podmíněná kvantová entropie. Ten může na rozdíl od svého klasického protějšku nabývat záporné hodnoty.
Viz také
Reference