Velké O v notaci pravděpodobnosti - Big O in probability notation
The pořadí v pravděpodobnosti notace se používá v teorie pravděpodobnosti a statistická teorie přímo paralelně s big-O notace to je standardní v matematika. Kde big-O notace pojednává o konvergenci posloupností nebo sad běžných čísel, řeší se pořadí v notaci pravděpodobnosti konvergence množin náhodných proměnných, kde konvergence je ve smyslu konvergence v pravděpodobnosti.[1]
Definice
Malá O: konvergence v pravděpodobnosti
Pro sadu náhodných proměnných Xn a odpovídající sadu konstant An (oba indexovány n, které nemusí být diskrétní), zápis
znamená, že soubor hodnot Xn/An s pravděpodobností konverguje k nule jako n se blíží k odpovídajícímu limitu. Xn = op(An) lze psát jako Xn/An = op(1), kde Xn = op(1) je definován jako,
za každé kladné ε.[2]
Big O: stochastická omezenost
Zápis,
znamená, že soubor hodnot Xn/An je stochasticky ohraničen. To znamená, že pro libovolné ε> 0 existuje konečná M> 0 a konečná N> 0 taková, že
Srovnání dvou definic
Rozdíl mezi definicí je nepatrný. Pokud někdo použije definici limitu, dostane:
- Big Op(1):
- Malé op(1):
Rozdíl spočívá v δ: pro stochastickou omezenost stačí, že existuje jeden (libovolně velký) δ pro uspokojení nerovnosti, a δ může být závislý na ε (odtud δε). Na druhé straně, pro konvergenci, musí výrok platit nejen pro jeden, ale pro libovolný (libovolně malý) δ. V jistém smyslu to znamená, že sekvence musí být ohraničená, s ohraničením, které se zmenšuje s rostoucí velikostí vzorku.
To naznačuje, že pokud je sekvence op(1), pak je to Op(1), tj. Konvergence v pravděpodobnosti znamená stochastickou omezenost. Opak však neplatí.
Příklad
Li je stochastická sekvence, takže každý prvek má konečnou odchylku
(viz Theorem 14.4-1 in Bishop et al.)
Pokud navíc je nulová sekvence pro sekvenci skutečných čísel s pravděpodobností konverguje k nule Čebyševova nerovnost, tak
- .