v statistika , Bayesiánská lineární regrese je přístup k lineární regrese ve kterém je statistická analýza prováděna v kontextu Bayesovský závěr . Když má regresní model chyby které mají normální distribuce , a pokud konkrétní forma předchozí distribuce Předpokládá se, že pro zadní rozdělení pravděpodobnosti parametrů modelu.
Nastavení modelu Zvažte standard lineární regrese problém, ve kterém pro i = 1 , … , n {displaystyle i = 1, ldots, n} zadáme průměr z podmíněné rozdělení z y i {displaystyle y_ {i}} daný a k × 1 {displaystyle k imes 1} vektor prediktoru X i {displaystyle mathbf {x} _ {i}} :
y i = X i T β + ε i , {displaystyle y_ {i} = mathbf {x} _ {i} ^ {m {T}} {oldsymbol {eta}} + varepsilon _ {i},} kde β {displaystyle {oldsymbol {eta}}} je k × 1 {displaystyle k imes 1} vektor a ε i {displaystyle varepsilon _ {i}} jsou nezávislé a identické normálně distribuováno náhodné proměnné:
ε i ∼ N ( 0 , σ 2 ) . {displaystyle varepsilon _ {i} sim N (0, sigma ^ {2}).} To odpovídá následujícímu funkce pravděpodobnosti :
ρ ( y ∣ X , β , σ 2 ) ∝ ( σ 2 ) − n / 2 exp ( − 1 2 σ 2 ( y − X β ) T ( y − X β ) ) . {displaystyle ho (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma ^ {2}) propto (sigma ^ {2}) ^ {- n / 2} exp left (- {frac {1 } {2sigma ^ {2}}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) v noci).} The obyčejné nejmenší čtverce řešení se používá k odhadu vektoru koeficientu pomocí Moore – Penroseova pseudoinverze :
β ^ = ( X T X ) − 1 X T y {displaystyle {hat {oldsymbol {eta}}} = (mathbf {X} ^ {m {T}} mathbf {X}) ^ {- 1} mathbf {X} ^ {m {T}} mathbf {y}} kde X {displaystyle mathbf {X}} je n × k {displaystyle n imes k} návrhová matice , z nichž každý řádek je vektor prediktoru X i T {displaystyle mathbf {x} _ {i} ^ {m {T}}} ; a y {displaystyle mathbf {y}} je sloupec n {displaystyle n} -vektor [ y 1 ⋯ y n ] T {displaystyle [y_ {1}; cdots; y_ {n}] ^ {m {T}}} .
Tohle je častý a předpokládá, že existuje dostatek měření, aby bylo možné říci něco smysluplného β {displaystyle {oldsymbol {eta}}} . V Bayesian přístupu jsou data doplněna o další informace v podobě a předchozí rozdělení pravděpodobnosti . Předchozí přesvědčení o parametrech je kombinováno s funkcí pravděpodobnosti dat podle Bayesova věta výtěžek zadní víra o parametrech β {displaystyle {oldsymbol {eta}}} a σ {displaystyle sigma} . Předchozí může mít různé funkční formy v závislosti na doméně a informacích, které jsou k dispozici a priori .
S předchozími konjugáty Konjugujte předchozí distribuci Pro libovolnou předchozí distribuci nemusí být k dispozici žádné analytické řešení zadní distribuce . V této části budeme uvažovat o tzv před konjugátem pro které lze analyticky odvodit zadní distribuci.
Před ρ ( β , σ 2 ) {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2})} je sdružené k této funkci pravděpodobnosti, pokud má stejnou funkční formu s ohledem na β {displaystyle {oldsymbol {eta}}} a σ {displaystyle sigma} . Protože logaritmická pravděpodobnost je kvadratická β {displaystyle {oldsymbol {eta}}} , log-likelihood je přepsána tak, aby se pravděpodobnost stala normální v ( β − β ^ ) {displaystyle ({oldsymbol {eta}} - {hat {oldsymbol {eta}}})} . Psát si
( y − X β ) T ( y − X β ) = ( y − X β ^ ) T ( y − X β ^ ) + ( β − β ^ ) T ( X T X ) ( β − β ^ ) . {displaystyle (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) = (mathbf {y} - mathbf {X} {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {y} -mathbf {X} {hat {oldsymbol {eta}}}) + ({oldsymbol {eta}} - {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X}) ({oldsymbol {eta}} - {hat {oldsymbol {eta}} }).} Pravděpodobnost je nyní přepsána jako
ρ ( y | X , β , σ 2 ) ∝ ( σ 2 ) − proti 2 exp ( − proti s 2 2 σ 2 ) ( σ 2 ) − n − proti 2 exp ( − 1 2 σ 2 ( β − β ^ ) T ( X T X ) ( β − β ^ ) ) , {displaystyle ho (mathbf {y} | mathbf {X}, {oldsymbol {eta}}, sigma ^ {2}) propto (sigma ^ {2}) ^ {- {frac {v} {2}}} exp vlevo (- {frac {vs ^ {2}} {2 {sigma} ^ {2}}} ight) (sigma ^ {2}) ^ {- {frac {nv} {2}}} exp vlevo (- {frac {1} {2 {sigma} ^ {2}}} ({oldsymbol {eta}} - {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {X} ^ {m {T} } mathbf {X}) ({oldsymbol {eta}} - {hat {oldsymbol {eta}}}) ight),} kde
proti s 2 = ( y − X β ^ ) T ( y − X β ^ ) a proti = n − k , {displaystyle vs ^ {2} = (mathbf {y} -mathbf {X} {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {y} -mathbf {X} {hat {oldsymbol { eta}}}) quad {ext {and}} quad v = nk,} kde k {displaystyle k} je počet regresních koeficientů.
To naznačuje formu pro předchozí:
ρ ( β , σ 2 ) = ρ ( σ 2 ) ρ ( β ∣ σ 2 ) , {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2}) = ho (sigma ^ {2}) ho ({oldsymbol {eta}} střední sigma ^ {2}),} kde ρ ( σ 2 ) {displaystyle ho (sigma ^ {2})} je inverzní gama distribuce
ρ ( σ 2 ) ∝ ( σ 2 ) − proti 0 2 − 1 exp ( − proti 0 s 0 2 2 σ 2 ) . {displaystyle ho (sigma ^ {2}) propto (sigma ^ {2}) ^ {- {frac {v_ {0}} {2}} - 1} exp vlevo (- {frac {v_ {0} s_ {0 } ^ {2}} {2sigma ^ {2}}} hned).} V zápisu zavedeném v inverzní gama distribuce článku, toto je hustota Inv-gama ( A 0 , b 0 ) {displaystyle {ext {Inv-Gamma}} (a_ {0}, b_ {0})} distribuce s A 0 = proti 0 2 {displaystyle a_ {0} = {frac {v_ {0}} {2}}} a b 0 = 1 2 proti 0 s 0 2 {displaystyle b_ {0} = {frac {1} {2}} v_ {0} s_ {0} ^ {2}} s proti 0 {displaystyle v_ {0}} a s 0 2 {displaystyle s_ {0} ^ {2}} jako předchozí hodnoty proti {displaystyle v} a s 2 {displaystyle s ^ {2}} , resp. Ekvivalentně to lze také popsat jako a škálované inverzní rozdělení chí-kvadrát , Měřítko inv χ 2 ( proti 0 , s 0 2 ) . {displaystyle {ext {Scale-inv -}} chi ^ {2} (v_ {0}, s_ {0} ^ {2}).}
Dále podmíněná předchozí hustota ρ ( β | σ 2 ) {displaystyle ho ({oldsymbol {eta}} | sigma ^ {2})} je normální distribuce ,
ρ ( β ∣ σ 2 ) ∝ ( σ 2 ) − k / 2 exp ( − 1 2 σ 2 ( β − μ 0 ) T Λ 0 ( β − μ 0 ) ) . {displaystyle ho ({oldsymbol {eta}} střední sigma ^ {2}) propto (sigma ^ {2}) ^ {- k / 2} exp vlevo (- {frac {1} {2sigma ^ {2}}} ( {oldsymbol {eta}} - {oldsymbol {mu}} _ {0}) ^ {m {T}} mathbf {Lambda} _ {0} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {0) }) hned).} V zápisu o normální distribuce , podmíněná předchozí distribuce je N ( μ 0 , σ 2 Λ 0 − 1 ) . {displaystyle {mathcal {N}} vlevo ({oldsymbol {mu}} _ {0}, sigma ^ {2} mathbf {Lambda} _ {0} ^ {- 1} ight).}
Zadní distribuce S předchozí specifikovanou lze zadní distribuci vyjádřit jako
ρ ( β , σ 2 ∣ y , X ) ∝ ρ ( y ∣ X , β , σ 2 ) ρ ( β ∣ σ 2 ) ρ ( σ 2 ) ∝ ( σ 2 ) − n / 2 exp ( − 1 2 σ 2 ( y − X β ) T ( y − X β ) ) ( σ 2 ) − k / 2 exp ( − 1 2 σ 2 ( β − μ 0 ) T Λ 0 ( β − μ 0 ) ) ( σ 2 ) − ( A 0 + 1 ) exp ( − b 0 σ 2 ) {displaystyle {egin {aligned} ho ({oldsymbol {eta}}, sigma ^ {2} mid mathbf {y}, mathbf {X}) & propto ho (mathbf {y} mid mathbf {X}, {oldsymbol {eta} }, sigma ^ {2}) ho ({oldsymbol {eta}} střední sigma ^ {2}) ho (sigma ^ {2}) & propto (sigma ^ {2}) ^ {- n / 2} exp vlevo ( - {frac {1} {2 {sigma} ^ {2}}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X } {oldsymbol {eta}}) ight) (sigma ^ {2}) ^ {- k / 2} exp vlevo (- {frac {1} {2sigma ^ {2}}} ({oldsymbol {eta}} - { oldsymbol {mu}} _ {0}) ^ {m {T}} {oldsymbol {Lambda}} _ {0} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {0}) ight) (sigma ^ {2}) ^ {- (a_ {0} +1)} exp vlevo (- {frac {b_ {0}} {sigma ^ {2}}} vpravo) konec {zarovnáno}}} S nějakým novým uspořádáním[1] zadní lze přepsat tak, že zadní znamená μ n {displaystyle {oldsymbol {mu}} _ {n}} vektoru parametrů β {displaystyle {oldsymbol {eta}}} lze vyjádřit pomocí odhadu nejmenších čtverců β ^ {displaystyle {hat {oldsymbol {eta}}}} a předchozí průměr μ 0 {displaystyle {oldsymbol {mu}} _ {0}} , přičemž síla předchozího indikována předchozí maticí přesnosti Λ 0 {displaystyle {oldsymbol {Lambda}} _ {0}}
μ n = ( X T X + Λ 0 ) − 1 ( X T X β ^ + Λ 0 μ 0 ) . {displaystyle {oldsymbol {mu}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) ^ {- 1} (mathbf {X } ^ {m {T}} mathbf {X} {hat {oldsymbol {eta}}} + {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0}).} To ospravedlnit μ n {displaystyle {oldsymbol {mu}} _ {n}} je skutečně zadní průměr, lze kvadratické členy v exponenciálu přeuspořádat jako a kvadratická forma v β − μ n {displaystyle {oldsymbol {eta}} - {oldsymbol {mu}} _ {n}} .[2]
( y − X β ) T ( y − X β ) + ( β − μ 0 ) T Λ 0 ( β − μ 0 ) = ( β − μ n ) T ( X T X + Λ 0 ) ( β − μ n ) + y T y − μ n T ( X T X + Λ 0 ) μ n + μ 0 T Λ 0 μ 0 . {displaystyle (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) + ({oldsymbol {eta} } - {oldsymbol {mu}} _ {0}) ^ {m {T}} {oldsymbol {Lambda}} _ {0} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {0}) = ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) + mathbf {y} ^ {m {T}} mathbf {y} - {oldsymbol {mu}} _ {n} ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) {oldsymbol {mu}} _ {n} + {oldsymbol {mu }} _ {0} ^ {m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0}.} Nyní lze zadní vyjádřit jako a normální distribuce krát inverzní gama distribuce :
ρ ( β , σ 2 ∣ y , X ) ∝ ( σ 2 ) − k / 2 exp ( − 1 2 σ 2 ( β − μ n ) T ( X T X + Λ 0 ) ( β − μ n ) ) ( σ 2 ) − n + 2 A 0 2 − 1 exp ( − 2 b 0 + y T y − μ n T ( X T X + Λ 0 ) μ n + μ 0 T Λ 0 μ 0 2 σ 2 ) . {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2} mid mathbf {y}, mathbf {X}) propto (sigma ^ {2}) ^ {- k / 2} exp left (- {frac {1 } {2 {sigma} ^ {2}}} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + mathbf {Lambda} _ {0}) ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) ight) (sigma ^ {2}) ^ {- {frac {n + 2a_ {0}} {2}} - 1} zbývající vlevo (- {frac {2b_ {0} + mathbf {y} ^ {m {T}} mathbf {y} - {oldsymbol {mu}} _ {n} ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) {oldsymbol {mu}} _ {n} + {oldsymbol {mu }} _ {0} ^ {m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0}} {2sigma ^ {2}}} přesně).} Zadní distribuci lze tedy parametrizovat následujícím způsobem.
ρ ( β , σ 2 ∣ y , X ) ∝ ρ ( β ∣ σ 2 , y , X ) ρ ( σ 2 ∣ y , X ) , {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2} mid mathbf {y}, mathbf {X}) propto ho ({oldsymbol {eta}} mid sigma ^ {2}, mathbf {y}, mathbf { X}) ho (sigma ^ {2} mid mathbf {y}, mathbf {X}),} kde dva faktory odpovídají hustotám N ( μ n , σ 2 Λ n − 1 ) {displaystyle {mathcal {N}} vlevo ({oldsymbol {mu}} _ {n}, sigma ^ {2} {oldsymbol {Lambda}} _ {n} ^ {- 1} vpravo),} a Inv-gama ( A n , b n ) {displaystyle {ext {Inv-Gamma}} left (a_ {n}, b_ {n} ight)} distribuce, jejichž parametry jsou dány
Λ n = ( X T X + Λ 0 ) , μ n = ( Λ n ) − 1 ( X T X β ^ + Λ 0 μ 0 ) , {displaystyle {oldsymbol {Lambda}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + mathbf {Lambda} _ {0}), quad {oldsymbol {mu}} _ {n } = ({oldsymbol {Lambda}} _ {n}) ^ {- 1} (mathbf {X} ^ {m {T}} mathbf {X} {hat {oldsymbol {eta}}} + {oldsymbol {Lambda} } _ {0} {oldsymbol {mu}} _ {0}),} A n = A 0 + n 2 , b n = b 0 + 1 2 ( y T y + μ 0 T Λ 0 μ 0 − μ n T Λ n μ n ) . {displaystyle a_ {n} = a_ {0} + {frac {n} {2}}, qquad b_ {n} = b_ {0} + {frac {1} {2}} (mathbf {y} ^ {m {T}} mathbf {y} + {oldsymbol {mu}} _ {0} ^ {m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0} - {oldsymbol { mu}} _ {n} ^ {m {T}} {oldsymbol {Lambda}} _ {n} {oldsymbol {mu}} _ {n}).} To lze interpretovat jako Bayesovské učení, kde jsou parametry aktualizovány podle následujících rovnic.
μ n = ( X T X + Λ 0 ) − 1 ( Λ 0 μ 0 + X T X β ^ ) , {displaystyle {oldsymbol {mu}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) ^ {- 1} ({oldsymbol { Lambda}} _ {0} {oldsymbol {mu}} _ {0} + mathbf {X} ^ {m {T}} mathbf {X} {hat {oldsymbol {eta}}}),} Λ n = ( X T X + Λ 0 ) , {displaystyle {oldsymbol {Lambda}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}),} A n = A 0 + n 2 , {displaystyle a_ {n} = a_ {0} + {frac {n} {2}},} b n = b 0 + 1 2 ( y T y + μ 0 T Λ 0 μ 0 − μ n T Λ n μ n ) . {displaystyle b_ {n} = b_ {0} + {frac {1} {2}} (mathbf {y} ^ {m {T}} mathbf {y} + {oldsymbol {mu}} _ {0} ^ { m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0} - {oldsymbol {mu}} _ {n} ^ {m {T}} {oldsymbol {Lambda}} _ {n} {oldsymbol {mu}} _ {n}).} Modelový důkaz The modelový důkaz p ( y ∣ m ) {displaystyle p (mathbf {y} střední m)} je pravděpodobnost dat daných modelem m {displaystyle m} . To je také známé jako mezní pravděpodobnost a jako předchozí prediktivní hustota . Zde je model definován funkcí pravděpodobnosti p ( y ∣ X , β , σ ) {displaystyle p (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma)} a předchozí distribuce na parametrech, tj. p ( β , σ ) {displaystyle p ({oldsymbol {eta}}, sigma)} . Důkaz modelu zachycuje jediným číslem, jak dobře takový model vysvětluje pozorování. Důkaz modelu Bayesovského lineárního regresního modelu uvedený v této části lze použít k porovnání konkurenčních lineárních modelů pomocí Bayesovské srovnání modelů . Tyto modely se mohou lišit v počtu a hodnotách proměnných prediktorů i v jejich předchůdcích parametrů modelu. Složitost modelu již zohledňují důkazy modelu, protože integrací marginalizuje parametry p ( y , β , σ ∣ X ) {displaystyle p (mathbf {y}, {oldsymbol {eta}}, sigma mid mathbf {X})} přes všechny možné hodnoty β {displaystyle {oldsymbol {eta}}} a σ {displaystyle sigma} .
p ( y | m ) = ∫ p ( y ∣ X , β , σ ) p ( β , σ ) d β d σ {displaystyle p (mathbf {y} | m) = int p (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma), p ({oldsymbol {eta}}, sigma), d {oldsymbol {eta}}, dsigma} Tento integrál lze vypočítat analyticky a řešení je uvedeno v následující rovnici.[3]
p ( y ∣ m ) = 1 ( 2 π ) n / 2 det ( Λ 0 ) det ( Λ n ) ⋅ b 0 A 0 b n A n ⋅ Γ ( A n ) Γ ( A 0 ) {displaystyle p (mathbf {y} mid m) = {frac {1} {(2pi) ^ {n / 2}}} {sqrt {frac {det ({oldsymbol {Lambda}} _ {0})} {det ({oldsymbol {Lambda}} _ {n})}}} cdot {frac {b_ {0} ^ {a_ {0}}} {b_ {n} ^ {a_ {n}}}} cdot {frac {Gamma (a_ {n})} {Gamma (a_ {0})}}} Tady Γ {displaystyle Gamma} označuje funkce gama . Protože jsme vybrali konjugát před, mezní pravděpodobnost lze také snadno vypočítat vyhodnocením následující rovnosti pro libovolné hodnoty β {displaystyle {oldsymbol {eta}}} a σ {displaystyle sigma} .
p ( y ∣ m ) = p ( β , σ | m ) p ( y ∣ X , β , σ , m ) p ( β , σ ∣ y , X , m ) {displaystyle p (mathbf {y} mid m) = {frac {p ({oldsymbol {eta}}, sigma | m), p (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma, m)} {p ({oldsymbol {eta}}, sigma mid mathbf {y}, mathbf {X}, m)}}} Všimněte si, že tato rovnice není nic jiného než nové uspořádání Bayesova věta . Vložení vzorců pro předchozí, pravděpodobnost a zadní a zjednodušení výsledného výrazu vede k výše uvedenému analytickému výrazu.
Ostatní případy Obecně může být nemožné nebo nepraktické odvodit zadní distribuci analyticky. Je však možné aproximovat zadní část pomocí přibližná Bayesova inference metoda jako Odběr vzorků v Monte Carlu [4] nebo variační Bayes .
Zvláštní případ μ 0 = 0 , Λ 0 = C Já {displaystyle {oldsymbol {mu}} _ {0} = 0, mathbf {Lambda} _ {0} = cmathbf {I}} je nazýván hřebenová regrese .
Podobnou analýzu lze provést pro obecný případ vícerozměrné regrese a část z toho poskytuje Bayesian odhad kovariančních matic : viz Bayesovská vícerozměrná lineární regrese .
Viz také Poznámky ^ Mezikroky tohoto výpočtu lze nalézt v O'Hagan (1994) na začátku kapitoly o lineárních modelech. ^ Mezilehlé kroky jsou v Fahrmeir et al. (2009) na straně 188. ^ Mezikroky tohoto výpočtu lze nalézt v O'Hagan (1994) na straně 257. ^ Carlin a Louis (2008) a Gelman, et al. (2003) vysvětlují, jak použít metody vzorkování pro Bayesovu lineární regresi. Reference Box, G. E. P. ; Tiao, G. C. (1973). Bayesovský závěr ve statistické analýze . Wiley. ISBN 0-471-57428-7 .Carlin, Bradley P .; Louis, Thomas A. (2008). Bayesovské metody pro analýzu dat, třetí vydání . Boca Raton, FL: Chapman and Hall / CRC. ISBN 1-58488-697-8 . Fahrmeir, L .; Kneib, T .; Lang, S. (2009). Regrese. Modelle, Methoden und Anwendungen (Druhé vydání.). Heidelberg: Springer. doi :10.1007/978-3-642-01837-4 . ISBN 978-3-642-01836-7 . Fornalski K.W .; Parzych G .; Pylak M .; Satuła D .; Dobrzyński L. (2010). „Aplikace Bayesiánského uvažování a metody maximální entropie na některé problémy s rekonstrukcí“ . Acta Physica Polonica A . 117 (6): 892–899. doi :10.12693 / APhysPolA.117.892 . Fornalski, Krzysztof W. (2015). "Aplikace robustní Bayesovské regresní analýzy". International Journal of Society Systems Science . 7 (4): 314–333. doi :10.1504 / IJSSS.2015.073223 . Gelman, Andrew ; Carlin, John B .; Stern, Hal S .; Rubin, Donald B. (2003). Bayesovská analýza dat, druhé vydání . Boca Raton, FL: Chapman and Hall / CRC. ISBN 1-58488-388-X .Goldstein, Michael; Wooff, David (2007). Bayesova lineární statistika, teorie a metody . Wiley. ISBN 978-0-470-01562-9 . Minka, Thomas P. (2001) Bayesiánská lineární regrese , Webová stránka výzkumu společnosti Microsoft Rossi, Peter E .; Allenby, Greg M .; McCulloch, Robert (2006). Bayesovská statistika a marketing . John Wiley & Sons. ISBN 0470863676 . O'Hagan, Anthony (1994). Bayesiánský závěr . Kendall's Advanced Theory of Statistics. 2B (První vydání). Halsted. ISBN 0-340-52922-9 . Sivia, D.S .; Skilling, J. (2006). Analýza dat - Bayesian Tutorial (Druhé vydání.). Oxford University Press. Walter, Gero; Augustin, Thomas (2009). „Bayesiánská lineární regrese - různé modely konjugátu a jejich (ne) citlivost na konflikt předchozích údajů“ (PDF) . Technical Report Number 069, Department of Statistics, University of Munich . externí odkazy
Kategorie Matematický portálCommons WikiProject