Princip ortogonality - Orthogonality principle

v statistika a zpracování signálu, princip ortogonality je nezbytnou a dostatečnou podmínkou pro optimálnost a Bayesovský odhad. Volně řečeno, princip ortogonality říká, že chybový vektor optimálního odhadce (v a střední kvadratická chyba sense) je kolmý na jakýkoli možný odhad. Princip ortogonality je nejčastěji uváděn pro lineární odhady, ale jsou možné obecnější formulace. Protože princip je nezbytnou a dostatečnou podmínkou pro optimálnost, lze jej použít k nalezení minimální střední kvadratická chyba odhadce.

Princip ortogonality pro lineární odhady

Při nastavení lineárního odhadu se nejčastěji používá princip ortogonality.[1] V této souvislosti pojďme X být neznámý náhodný vektor který je třeba odhadnout na základě pozorovacího vektoru y. Jeden si přeje zkonstruovat lineární odhad pro nějakou matici H a vektor C. Princip ortogonality pak říká, že odhad dosahuje minimální střední kvadratická chyba kdyby a jen kdyby

  • a

Li X a y mít nulovou střední hodnotu, pak stačí vyžadovat první podmínku.

Příklad

Předpokládat X je Gaussova náhodná proměnná s průměrem m a rozptyl Předpokládejme také, že sledujeme hodnotu kde w je Gaussův šum, který je nezávislý na X a má průměr 0 a rozptyl Chtěli bychom najít lineární odhad minimalizace MSE. Nahrazení výrazu do dvou požadavků principu ortogonality dostaneme

a

Řešení těchto dvou lineárních rovnic pro h a C výsledky v

takže lineární odhad střední střední kvadratické chyby je dán vztahem

Tento odhad lze interpretovat jako vážený průměr mezi hlučnými měřeními y a předchozí očekávaná hodnota m. Pokud je rozptyl šumu je nízký ve srovnání s rozptylem předchozího (odpovídá vysoké SNR ), pak se většina váhy přičte měření y, které jsou považovány za spolehlivější než předchozí informace. Naopak, pokud je odchylka šumu relativně vyšší, bude odhad blízký m, protože měření nejsou dostatečně spolehlivá, aby převažovala nad předchozími informacemi.

Nakonec si povšimněte, že proto, že proměnné X a y jsou společně Gaussian, minimální odhad MSE je lineární.[2] V tomto případě tedy výše uvedený odhad minimalizuje MSE mezi všemi odhady, nejen lineárními odhady.

Obecná formulace

Nechat být Hilbertův prostor náhodných proměnných s vnitřní produkt definován . Předpokládat je Zavřeno podprostor , představující prostor všech možných odhadů. Jeden si přeje najít vektor který bude aproximovat vektor . Přesněji bychom chtěli minimalizovat střední kvadratickou chybu (MSE) mezi a .

Ve zvláštním případě výše popsaných lineárních odhadů je to prostor je sada všech funkcí a , zatímco je sada lineárních odhadů, tj. lineárních funkcí pouze. Další nastavení, která lze takto formulovat, zahrnují podprostor kauzální lineární filtry a podprostor všech (možná nelineárních) odhadů.

Geometricky můžeme tento problém vidět podle následujícího jednoduchého případu kde je jednorozměrný podprostor:

Princip ortogonality.png

Chceme najít nejbližší přiblížení k vektoru vektorem v prostoru . Z geometrické interpretace je intuitivní, že nejlepší aproximace nebo nejmenší chyba nastane, když vektor chyby, , je kolmý na vektory v prostoru .

Přesněji řečeno, obecný princip ortogonality uvádí následující: Vzhledem k uzavřenému podprostoru odhadů v Hilbertově prostoru a prvek v prvek dosáhne minimálního MSE mezi všemi prvky v kdyby a jen kdyby pro všechny

Takto vyjádřený princip je pouhým vyjádřením Hilbertova věta o projekci. Nicméně rozsáhlé použití tohoto výsledku při zpracování signálu vedlo k názvu „princip ortogonality“.

Řešení problémů s minimalizací chyb

Toto je jeden způsob, jak najít minimální střední kvadratická chyba odhad pomocí principu ortogonality.

Chceme být schopni aproximovat vektor podle

kde

je aproximace jako lineární kombinace vektorů v podprostoru překlenul Proto chceme být schopni řešit koeficienty, , abychom mohli napsat naši aproximaci známými termíny.

Podle věty o ortogonalitě je druhá mocnina vektoru chyby, , je minimalizován, když pro všechny j,

Při vývoji této rovnice získáme

Pokud existuje konečné číslo vektorů , lze tuto rovnici napsat v maticové formě jako

Za předpokladu, že jsou lineárně nezávislé, Gramianova matice lze převrátit získat

čímž poskytuje vyjádření koeficientů minimálního středního odhadce čtvercové chyby.

Viz také

Poznámky

  1. ^ Kay, str. 386
  2. ^ Viz článek minimální střední kvadratická chyba.

Reference

  • Kay, S. M. (1993). Základy statistického zpracování signálu: teorie odhadu. Prentice Hall. ISBN  0-13-042268-1.
  • Moon, Todd K. (2000). Matematické metody a algoritmy pro zpracování signálu. Prentice-Hall. ISBN  0-201-36186-8.