Příklady markovských řetězců - Examples of Markov chains
Tato stránka obsahuje příklady Markovovy řetězy a Markovovy procesy v akci.
Všechny příklady jsou spočítatelné státní prostor. Přehled markovských řetězců v obecném stavovém prostoru viz Markovovy řetězce na měřitelném stavovém prostoru.
Diskrétní čas
Deskové hry hrané s kostkami
Hra o hadi a žebříky nebo jakoukoli jinou hru, jejíž pohyby jsou zcela určeny kostky je markovský řetězec, opravdu absorbující Markovův řetězec. To je na rozdíl od karetních her, jako jsou blackjack, kde karty představují „paměť“ minulých tahů. Chcete-li vidět rozdíl, zvažte pravděpodobnost určité události ve hře. Ve výše zmíněných kostkových hrách záleží jen na aktuálním stavu herního plánu. Další stav desky závisí na aktuálním stavu a dalším hodu kostkami. Nezáleží na tom, jak se věci dostaly do současného stavu. Ve hře, jako je blackjack, může hráč získat výhodu tím, že si zapamatuje, které karty již byly zobrazeny (a tedy které karty již nejsou v balíčku), takže další stav (nebo kombinace) hry není nezávislý na minulé státy.
Náhodné procházky Markovovy řetězy
Náhodná procházka se středovým předpětím
Zvažte a náhodná procházka na číselné lince, kde je v každém kroku pozice (nazvěte to X) se může změnit o +1 (vpravo) nebo −1 (vlevo) s pravděpodobnostmi:
(kde C je konstanta větší než 0)
Například pokud konstanta, C, se rovná 1, pravděpodobnosti pohybu doleva na pozicích X = −2, −1,0,1,2 jsou dány vztahem resp. Náhodná chůze má centrující účinek, který oslabuje jako C zvyšuje.
Protože pravděpodobnosti závisí pouze na aktuální poloze (hodnota X) a nikoli na předchozích pozicích, tato vychýlená náhodná procházka splňuje definici Markovova řetězce.
Hazardní hry
Předpokládejme, že začnete s 10 $ a vsadíte 1 $ na nekonečné, spravedlivé, losování na neurčito, nebo dokud nepřijdete o všechny své peníze. Li představuje počet dolarů, které máte po n hodí, s , pak sekvence je Markovův proces. Pokud vím, že teď máte 12 $, pak by se dalo očekávat, že se sudými kurzy budete mít po příštím losování 11 $ nebo 13 $. Tento odhad není vylepšen přidanou znalostí, že jste začali s 10 $, poté šli až na 11 $, dolů na 10 $, až 11 $ a pak na 12 $. Skutečnost, že odhad není vylepšen znalostmi dřívějších losování, ukazuje Majetek Markov, paměťová vlastnost stochastického procesu.[1][2]
Jednoduchý model počasí
Pravděpodobnosti povětrnostních podmínek (modelovaných jako deštivé nebo slunečné), vzhledem k počasí předchozího dne, lze vyjádřit pomocí přechodová matice:[3]
Matice P představuje model počasí, ve kterém je slunečný den s 90% pravděpodobností následován dalším slunečným dnem a deštivý den je s 50% pravděpodobností následován dalším deštivým dnem.[3] Sloupce mohou být označeny jako „slunečné“ a „deštivé“ a řádky mohou být označeny ve stejném pořadí.
(P)já j je pravděpodobnost, že pokud je daný den typový i, bude následován dnem psaní j.
Všimněte si, že řádky P součet 1: je to proto P je stochastická matice.[3]
Předpovídání počasí
Počasí v den 0 (dnes) je známé jako slunečné. To představuje vektor, ve kterém je „slunečný“ vstup 100% a „deštivý“ vstup je 0%:
Počasí 1. den (zítra) lze předpovědět:
Existuje tedy 90% šance, že 1. den bude také slunečný.
Počasí 2. den (pozítří) lze předpovídat stejným způsobem:
nebo
Obecná pravidla pro den n jsou:
Stabilní stav počasí
V tomto příkladu jsou předpovědi počasí ve vzdálenějších dnech stále nepřesnější a směřují k vektor v ustáleném stavu.[4] Tento vektor představuje pravděpodobnost slunečného a deštivého počasí po všechny dny a je nezávislý na počátečním počasí.[4]
Vektor v ustáleném stavu je definován jako:
ale konverguje k přísně pozitivnímu vektoru, pouze pokud P je regulární přechodová matice (tj. existuje alespoň jedna Pn se všemi nenulovými položkami).
Protože q je nezávislý na počátečních podmínkách, při transformaci pomocí musí být nezměněn P.[4] Díky tomu je vlastní vektor (s vlastní číslo 1) a znamená, že z něj lze odvodit P.[4] Příklad počasí:
a protože jsou vektorem pravděpodobnosti, víme to
Řešení této dvojice simultánních rovnic dává distribuci v ustáleném stavu:
Závěrem lze říci, že z dlouhodobého hlediska je asi 83,3% dnů slunečných.
Akciový trh
A stavový diagram jednoduchý příklad je znázorněn na obrázku vpravo a pomocí namířeného grafu k obrázku přechody stavu. Státy představují, zda hypotetický akciový trh vykazuje a býčí trh, medvědí trh, nebo stagnující tržní trend během daného týdne. Podle obrázku býčí týden následuje další býčí týden 90% času, medvědí týden 7,5% času a stagnující týden dalších 2,5% času. Označením stavového prostoru {1 = býk, 2 = medvěd, 3 = stagnující} je přechodová matice pro tento příklad
Distribuci přes stavy lze zapsat jako a stochastický řádek vektor X se vztahem X(n + 1) = X(n)P. Takže pokud včas n systém je ve stavu X(n), poté o tři časová období později n + 3 distribuce je
Zejména pokud včas n systém je ve stavu 2 (medvěd), tedy v čase n + 3 distribuce je
Pomocí přechodové matice je možné vypočítat například dlouhodobý zlomek týdnů, během nichž trh stagnuje, nebo průměrný počet týdnů, které bude potřeba k přechodu ze stagnujícího na býčí trh. Použitím pravděpodobností přechodu pravděpodobnosti ustáleného stavu naznačují, že 62,5% týdnů bude na býčím trhu, 31,25% týdnů bude na medvědím trhu a 6,25% týdnů bude stagnovat, protože:
Důkladný vývoj a mnoho příkladů lze najít v online monografii Meyn & Tweedie 2005.[6]
A konečný stavový stroj lze použít jako reprezentaci Markovova řetězce. Za předpokladu posloupnosti nezávislé a identicky distribuované vstupní signály (například symboly z binární abecedy vybrané pomocí losování mincí), pokud je stroj ve stavu y v čase n, pak pravděpodobnost, že přejde do stavu X v čase n + 1 závisí pouze na aktuálním stavu.
Kontinuální čas
Proces narození a smrti
Pokud někdo v troubě vyskočí sto jader popcornu, každé jádro vyskočí na nezávislé exponenciálně distribuované čas, pak by to bylo kontinuální Markovův proces. Li označuje počet jader, která se časem objevila t, problém lze definovat jako nalezení počtu jader, která se objeví později. Jediné, co člověk potřebuje vědět, je počet jader, která se objevila před časem „t“. Není nutné to vědět když vyskočili, takže věděli pro předchozí časy „t“ není relevantní.
Zde popsaný proces je aproximací a Proces Poissonova bodu - Poissonovy procesy jsou také Markovovy procesy.
Viz také
Reference
- ^ Øksendal, B. K. (Bernt Karsten), 1945- (2003). Stochastické diferenciální rovnice: úvod do aplikací (6. vydání). Berlín: Springer. ISBN 3540047581. OCLC 52203046.CS1 maint: více jmen: seznam autorů (odkaz)
- ^ Gagniuc, Paul A. (2017). Markovovy řetězce: od teorie k implementaci a experimentování. USA, NJ: John Wiley & Sons. s. 1–235. ISBN 978-1-119-38755-8.
- ^ A b C Van Kampen, N.G. (2007). Stochastické procesy ve fyzice a chemii. NL: North Holland Elsevier. str.73 –95. ISBN 978-0-444-52965-7.
- ^ A b C d Van Kampen, N.G. (2007). Stochastické procesy ve fyzice a chemii. NL: North Holland Elsevier. str.73 –95. ISBN 978-0-444-52965-7.
- ^ A b Gagniuc, Paul A. (2017). Markovovy řetězce: od teorie k implementaci a experimentování. Hoboken, NJ: John Wiley & Sons. str. 131–163. ISBN 9781119387572. OCLC 982373850.
- ^ S. P. Meyn a R.L. Tweedie, 2005. Markovovy řetězy a stochastická stabilita Archivováno 03.09.2013 na Wayback Machine
tento článek potřebuje další citace pro ověření.Červen 2016) (Zjistěte, jak a kdy odstranit tuto zprávu šablony) ( |