v statistika, Bayesovská vícerozměrná lineární regrese jeBayesian přístup k vícerozměrná lineární regrese, tj. lineární regrese kde předpokládaný výsledek je vektorem korelace náhodné proměnné spíše než jediná skalární náhodná proměnná. Obecnější zacházení s tímto přístupem lze nalézt v článku Odhad MMSE.
Detaily
Zvažte regresní problém, kde závislá proměnná předvídat není jediný skutečný skalární, ale m- délka vektoru korelovaných reálných čísel. Stejně jako ve standardním regresním nastavení existují n pozorování, kde každé pozorování i skládá se z k-1vysvětlující proměnné, seskupené do vektoru
délky k (kde fiktivní proměnná s hodnotou 1 byla přidána, aby byl umožněn koeficient průsečíku). To lze považovat za dílo m související regresní problémy pro každé pozorování i:



kde sada chyb
všechny jsou ve vzájemném vztahu. Ekvivalentně to lze považovat za jediný regresní problém, kde je výsledek řádek vektor
a vektory regresních koeficientů se skládají vedle sebe, a to následovně:

Matice koeficientů B je
matice, kde vektory koeficientů
pro každý regresní problém se skládají vodorovně:

Vektor šumu
pro každé pozorování ije společně normální, takže výsledky pro dané pozorování jsou v korelaci:

Celý regresní problém můžeme napsat do maticového tvaru jako:

kde Y a E jsou
matice. The návrhová matice X je
matice s pozorováním naskládanými svisle, jako ve standardu lineární regrese založit:

Klasičtí, frekventanti lineární nejmenší čtverce řešením je jednoduše odhadnout matici regresních koeficientů
za použití Moore-Penrose pseudoinverze:
.
Abychom získali Bayesovské řešení, musíme specifikovat podmíněnou pravděpodobnost a poté najít vhodný konjugát. Stejně jako u jednorozměrného případu lineární Bayesova regrese, zjistíme, že můžeme určit přirozený podmíněný konjugát před (který je závislý na měřítku).
Napišme naši podmíněnou pravděpodobnost jako[1]

zápis chyby
ve smyslu
a
výnosy

Hledáme přirozený konjugát před - hustotu kloubů
který má stejnou funkční formu jako pravděpodobnost. Protože pravděpodobnost je kvadratická
, přepíšeme pravděpodobnost, takže je normální
(odchylka od odhadu klasického vzorku).
Stejnou technikou jako u Bayesiánská lineární regrese, exponenciální člen rozložíme pomocí maticové formy techniky součtu čtverců. Zde však také budeme muset použít Maticový diferenciální počet (Produkt Kronecker a vektorizace transformace).
Nejprve použijeme součty čtverců, abychom získali nový výraz pravděpodobnosti:


Rádi bychom vytvořili podmíněnou formu pro předky:

kde
je inverzní Wishartova distribuce a
je nějaká forma normální distribuce v matici
. Toho je dosaženo pomocí vektorizace transformace, která převádí pravděpodobnost z funkce matic
na funkci vektorů
.
Psát si

Nechat

kde
označuje Produkt Kronecker matic A a B, zobecnění vnější produkt což znásobuje
matice a
matice pro generování
matice, skládající se z každé kombinace produktů prvků ze dvou matic.
Pak


což povede k pravděpodobnosti, která je v
.
S pravděpodobností ve více přitažlivé formě můžeme nyní najít přirozený (podmíněný) konjugát dříve.
Konjugujte předchozí distribuci
Přirozený konjugát před použitím vektorizované proměnné
má tvar:[1]
,
kde

a

Zadní distribuce
Pomocí výše uvedeného předchozího a pravděpodobnosti lze zadní distribuci vyjádřit jako:[1]



kde
Podmínky zahrnující
lze seskupit (s
) použitím:



,
s
.
To nám nyní umožňuje napsat zadní část v užitečnější formě:

.
To má podobu inverzní Wishartova distribuce krát a Normální rozdělení matice:

a
.
Parametry tohoto zadku jsou dány vztahem:




Viz také
Reference
- ^ A b C Peter E. Rossi, Greg M. Allenby, Rob McCulloch. Bayesovská statistika a marketing. John Wiley & Sons, 2012, str. 32.