| Tento článek má několik problémů. Prosím pomozte vylepši to nebo diskutovat o těchto problémech na internetu diskusní stránka. (Zjistěte, jak a kdy tyto zprávy ze šablony odebrat) | tento článek vyžaduje pozornost odborníka na statistiku. Přidejte prosím důvod nebo a mluvit parametr k této šabloně pro vysvětlení problému s článkem. Statistiky WikiProject může pomoci s náborem odborníka. (Září 2009) |
(Zjistěte, jak a kdy odstranit tuto zprávu šablony) |
v statistika, vysvětlený součet čtverců (ESS), alternativně známý jako modelový součet čtverců nebo součet čtverců v důsledku regrese („SSR“ - nesmí být zaměňována s zbytkový součet čtverců RSS nebo součet čtverců chyb), je veličina používaná k popisu, jak dobře model, často a regresní model, představuje data, která se modelují. Zejména vysvětlený součet čtverců měří, kolik variací je v modelovaných hodnotách, a to je porovnáno s celkový součet čtverců (TSS), která měří, jak velká je variace pozorovaných údajů, a to zbytkový součet čtverců, která měří odchylku chyby mezi pozorovanými údaji a modelovanými hodnotami.
Definice
The vysvětlený součet čtverců (ESS) je součet čtverců odchylek předpovězených hodnot od střední hodnoty proměnné odezvy ve standardu regresní model - například, yi = A + b1X1i + b2X2i + ... + εi, kde yi je i th pozorování proměnná odezvy, Xji je i th pozorování j th vysvětlující proměnná, A a bj jsou koeficienty, i indexuje pozorování od 1 do n, a εi je i th hodnota chybový termín. Obecně platí, že čím větší je ESS, tím lepší je odhadovaný model.
Li
a
jsou odhadované koeficienty, pak

je i th předpokládaná hodnota proměnné odezvy. ESS je pak:

- kde
hodnota odhadnutá regresní přímkou.[1]
V některých případech (viz níže): celkový součet čtverců (TSS) =vysvětlil součet čtverců (ESS)+ zbytkový součet čtverců (RSS).
Rozdělení pomocí jednoduché lineární regrese
Následující rovnost, která uvádí, že celkový součet čtverců (TSS) se rovná zbytkovému součtu čtverců (= SSE: součet čtvercových chyb predikce) plus vysvětlený součet čtverců (SSR: součet čtverců v důsledku regrese nebo vysvětleného součet čtverců), obecně platí pro jednoduchou lineární regresi:

Jednoduché odvození

Srovnejte obě strany a sečtěte vše i:

Zde je ukázáno, jak je výše uvedený poslední termín nulový jednoduchá lineární regrese[2]



Tak,


Proto,
![{ displaystyle { begin {aligned} & sum _ {i = 1} ^ {n} 2 ({ hat {y}} _ {i} - { bar {y}}) (y_ {i} - { hat {y}} _ {i}) = 2 { hat {b}} sum _ {i = 1} ^ {n} (x_ {i} - { bar {x}}) (y_ { i} - { hat {y}} _ {i}) [4pt] = {} & 2 { hat {b}} sum _ {i = 1} ^ {n} (x_ {i} - { bar {x}}) ((y_ {i} - { bar {y}}) - { hat {b}} (x_ {i} - { bar {x}})) [4pt] = {} & 2 { hat {b}} left ( sum _ {i = 1} ^ {n} (x_ {i} - { bar {x}}) (y_ {i} - { bar { y}}) - sum _ {i = 1} ^ {n} (x_ {i} - { bar {x}}) ^ {2} { frac { sum _ {j = 1} ^ {n } (x_ {j} - { bar {x}}) (y_ {j} - { bar {y}})}} { sum _ {j = 1} ^ {n} (x_ {j} - { bar {x}}) ^ {2}}} vpravo) [4pt] = {} & 2 { hat {b}} (0) = 0 end {zarovnáno}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0df16697d14368c46e7270b6e4e5ee0d1b819d29)
Rozdělení v obecném modelu nejmenších čtverců
Obecný regresní model s n pozorování a k vysvětlovače, z nichž první je konstantní jednotkový vektor, jehož koeficientem je regresní intercept, je

kde y je n × 1 vektor pozorování závislých proměnných, každý sloupec n × k matice X je vektor pozorování na jednom z k vysvětlující,
je k × 1 vektor skutečných koeficientů a E je n × 1 vektor skutečných podkladových chyb. The obyčejné nejmenší čtverce odhadce pro
je

Zbytkový vektor
je
, takže zbytkový součet čtverců
je po zjednodušení

Označit jako
konstantní vektor, jehož všechny prvky jsou ukázkovým průměrem
závislých hodnot proměnných ve vektoru y. Pak je celkový součet čtverců

Vysvětlený součet čtverců, definovaný jako součet čtverců odchylek předpovězených hodnot od pozorovaného průměru y, je

Použitím
v tomto a zjednodušení k získání
, dává výsledek, že TSS = ESS + RSS kdyby a jen kdyby
. Levá strana je
krát součet prvků ya pravá strana je
krát součet prvků
, takže podmínkou je, že součet prvků y se rovná součtu prvků z
, nebo ekvivalentně, že součet chyb predikce (zbytky)
je nula. To lze považovat za pravdivé tím, že si všimneme známé vlastnosti OLS, kterou k × 1 vektor
: od prvního sloupce X je vektor jedniček, první prvek tohoto vektoru
je součet reziduí a rovná se nule. To dokazuje, že podmínka platí pro výsledek, který TSS = ESS + RSS.
Z hlediska lineární algebry máme
,
,
Důkaz lze zjednodušit tím, že si to všimnete
. Důkaz je následující:

Tím pádem,

což opět dává výsledek TSS = ESS + RSS, od té doby
.
Viz také
Poznámky
Reference
- S. E. Maxwell a H. D. Delaney (1990), „Navrhování experimentů a analýza dat: perspektiva srovnání modelů“. Wadsworth. 289–290.
- G. A. Milliken a D. E. Johnson (1984), "Analysis of messy data", Vol. I: Navrhované experimenty. Van Nostrand Reinhold. s. 146–151.
- B. G. Tabachnick a L. S. Fidell (2007), „Experimental design using ANOVA“. Duxbury. str. 220.
- B. G. Tabachnick a L. S. Fidell (2007), „Using multivariate statistics“, 5. vydání. Pearson Education. 217–218.