v teorie informace a statistika, Kullbackova nerovnost je dolní mez na Kullback – Leiblerova divergence vyjádřeno v velké odchylky rychlostní funkce.[1] Li P a Q jsou rozdělení pravděpodobnosti na skutečné linii, takhle P je absolutně kontinuální s ohledem na Q, tj. P<<Q, a jehož první okamžiky tedy existují

kde
je rychlostní funkce, tj konvexní konjugát z kumulant -generační funkce, z
, a
je první okamžik z 
The Cramér – Rao vázán je důsledkem tohoto výsledku.
Důkaz
Nechat P a Q být rozdělení pravděpodobnosti (míry) na reálné linii, jejíž první okamžiky existují, a takové P<<Q. Zvažte přirozená exponenciální rodina z Q dána

pro každou měřitelnou sadu A, kde
je funkce generující momenty z Q. (Všimněte si, že Q0=Q.) Pak

Podle Gibbsova nerovnost my máme
aby

Zjednodušení pravé strany, máme pro každé skutečné θ kde 

kde
je první okamžik, nebo průměr, z P, a
se nazývá funkce generující kumulant. Převzetí suprema završuje proces konvexní konjugace a dává rychlostní funkce:

Dodatek: svázán Cramér – Rao
Začněte s Kullbackovou nerovností
Nechat Xθ být rodinou rozdělení pravděpodobnosti na reálné linii indexované skutečným parametrem θ a splňující určité podmínky pravidelnosti. Pak

kde
je konvexní konjugát z funkce generující kumulant z
a
je první okamžik 
Levá strana
Levou stranu této nerovnosti lze zjednodušit takto:
![{ displaystyle { begin {aligned} lim _ {h to 0} { frac {D_ {KL} (X _ { theta + h} | X _ { theta})} {h ^ {2}} } & = lim _ {h to 0} { frac {1} {h ^ {2}}} int _ {- infty} ^ { infty} log left ({ frac { mathrm {d} X _ { theta + h}} { mathrm {d} X _ { theta}}} right) mathrm {d} X _ { theta + h} & = - lim _ {h do 0} { frac {1} {h ^ {2}}} int _ {- infty} ^ { infty} log left ({ frac { mathrm {d} X _ { theta}} { mathrm {d} X _ { theta + h}}} right) mathrm {d} X _ { theta + h} & = - lim _ {h to 0} { frac {1} {h ^ {2}}} int _ {- infty} ^ { infty} log left (1- left (1 - { frac { mathrm {d} X _ { theta}} { mathrm {d} X _ { theta + h}}} right) right) mathrm {d} X _ { theta + h} & = lim _ {h to 0} { frac {1} {h ^ {2}}} int _ {- infty} ^ { infty} left [ left (1 - { frac { mathrm {d} X _ { theta}} { mathrm {d} X _ { theta + h}}} right) + { frac {1} {2}} left (1 - { frac { mathrm {d} X _ { theta}} { mathrm {d} X_ { theta + h}}} vpravo) ^ {2} + o vlevo ( vlevo (1 - { frac { mathrm {d} X _ { theta}} { mathrm {d} X _ { theta + h}}} right) ^ {2} right) right] mathrm {d} X _ { theta + h} && { text {Taylorova řada pro}} log (1-t) & = lim _ {h to 0} { frac {1} {h ^ {2}}} int _ {- infty} ^ { infty} left [ { frac {1} {2}} vlevo (1 - { frac { mathrm {d} X _ { theta}} { mathrm {d} X _ { theta + h}}} vpravo) ^ { 2} right] mathrm {d} X _ { theta + h} & = lim _ {h to 0} { frac {1} {h ^ {2}}} int _ {- infty} ^ { infty} left [{ frac {1} {2}} left ({ frac { mathrm {d} X _ { theta + h} - mathrm {d} X _ { theta} } { mathrm {d} X _ { theta + h}}} right) ^ {2} right] mathrm {d} X _ { theta + h} & = { frac {1} {2 }} { mathcal {I}} _ {X} ( theta) end {zarovnáno}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2770bab35554a6b23fb4f78350519d8031b52cea)
což je polovina Fisher informace parametru θ.
Pravá strana
Pravou stranu nerovnosti lze vyvinout následovně:

Této nadřazenosti je dosaženo při hodnotě t= τ, kde je první derivace funkce generující kumulant
ale máme
aby

Navíc,

Dáme obě strany dohromady
My máme:

které lze přeskupit jako:

Viz také
Poznámky a odkazy