v statistika, Bayesovská vícerozměrná lineární regrese jeBayesian přístup k vícerozměrná lineární regrese, tj. lineární regrese kde předpokládaný výsledek je vektorem korelace náhodné proměnné spíše než jediná skalární náhodná proměnná. Obecnější zacházení s tímto přístupem lze nalézt v článku Odhad MMSE.
Detaily
Zvažte regresní problém, kde závislá proměnná předvídat není jediný skutečný skalární, ale m- délka vektoru korelovaných reálných čísel. Stejně jako ve standardním regresním nastavení existují n pozorování, kde každé pozorování i skládá se z k-1vysvětlující proměnné, seskupené do vektoru délky k (kde fiktivní proměnná s hodnotou 1 byla přidána, aby byl umožněn koeficient průsečíku). To lze považovat za dílo m související regresní problémy pro každé pozorování i:
kde sada chyb všechny jsou ve vzájemném vztahu. Ekvivalentně to lze považovat za jediný regresní problém, kde je výsledek řádek vektor a vektory regresních koeficientů se skládají vedle sebe, a to následovně:
Matice koeficientů B je matice, kde vektory koeficientů pro každý regresní problém se skládají vodorovně:
Vektor šumu pro každé pozorování ije společně normální, takže výsledky pro dané pozorování jsou v korelaci:
Celý regresní problém můžeme napsat do maticového tvaru jako:
kde Y a E jsou matice. The návrhová matice X je matice s pozorováním naskládanými svisle, jako ve standardu lineární regrese založit:
Klasičtí, frekventanti lineární nejmenší čtverce řešením je jednoduše odhadnout matici regresních koeficientů za použití Moore-Penrose pseudoinverze:
- .
Abychom získali Bayesovské řešení, musíme specifikovat podmíněnou pravděpodobnost a poté najít vhodný konjugát. Stejně jako u jednorozměrného případu lineární Bayesova regrese, zjistíme, že můžeme určit přirozený podmíněný konjugát před (který je závislý na měřítku).
Napišme naši podmíněnou pravděpodobnost jako[1]
zápis chyby ve smyslu a výnosy
Hledáme přirozený konjugát před - hustotu kloubů který má stejnou funkční formu jako pravděpodobnost. Protože pravděpodobnost je kvadratická , přepíšeme pravděpodobnost, takže je normální (odchylka od odhadu klasického vzorku).
Stejnou technikou jako u Bayesiánská lineární regrese, exponenciální člen rozložíme pomocí maticové formy techniky součtu čtverců. Zde však také budeme muset použít Maticový diferenciální počet (Produkt Kronecker a vektorizace transformace).
Nejprve použijeme součty čtverců, abychom získali nový výraz pravděpodobnosti:
Rádi bychom vytvořili podmíněnou formu pro předky:
kde je inverzní Wishartova distribuce a je nějaká forma normální distribuce v matici . Toho je dosaženo pomocí vektorizace transformace, která převádí pravděpodobnost z funkce matic na funkci vektorů .
Psát si
Nechat
kde označuje Produkt Kronecker matic A a B, zobecnění vnější produkt což znásobuje matice a matice pro generování matice, skládající se z každé kombinace produktů prvků ze dvou matic.
Pak
což povede k pravděpodobnosti, která je v .
S pravděpodobností ve více přitažlivé formě můžeme nyní najít přirozený (podmíněný) konjugát dříve.
Konjugujte předchozí distribuci
Přirozený konjugát před použitím vektorizované proměnné má tvar:[1]
- ,
kde
a
Zadní distribuce
Pomocí výše uvedeného předchozího a pravděpodobnosti lze zadní distribuci vyjádřit jako:[1]
kde Podmínky zahrnující lze seskupit (s ) použitím:
- ,
s
- .
To nám nyní umožňuje napsat zadní část v užitečnější formě:
- .
To má podobu inverzní Wishartova distribuce krát a Normální rozdělení matice:
a
- .
Parametry tohoto zadku jsou dány vztahem:
Viz také
Reference
- ^ A b C Peter E. Rossi, Greg M. Allenby, Rob McCulloch. Bayesovská statistika a marketing. John Wiley & Sons, 2012, str. 32.