Nejméně střední filtr čtverců - Least mean squares filter
Tento článek obsahuje seznam obecných Reference, ale zůstává z velké části neověřený, protože postrádá dostatečné odpovídající vložené citace. Prosím pomozte zlepšit tento článek představuji přesnější citace.(Ledna 2019) (Zjistěte, jak a kdy odstranit tuto zprávu šablony)
Nejméně střední čtverce (LMS) Algoritmy jsou třídou adaptivní filtr slouží k napodobení požadovaného filtru vyhledáním koeficientů filtru, které souvisejí s produkcí nejmenší střední kvadratury chybového signálu (rozdíl mezi požadovaným a skutečným signálem). Je to stochastický gradient metoda v tom, že filtr je přizpůsoben pouze na základě chyby v aktuálním čase. To bylo vynalezeno v roce 1960 Stanfordská Univerzita profesor Bernard Widrow a jeho první Ph.D. student, Ted Hoff.
Realizace příčinné souvislosti Wienerův filtr vypadá hodně jako řešení odhadu nejmenších čtverců, s výjimkou domény zpracování signálu. Řešení nejmenších čtverců pro vstupní matici a výstupní vektor je
Filtr nejmenších středních čtverců FIR souvisí s Wienerovým filtrem, ale minimalizace chybového kritéria prvního se nespoléhá na vzájemné korelace nebo automatické korelace. Jeho řešení konverguje k řešení Wienerova filtru. Většinu problémů s lineárním adaptivním filtrováním lze formulovat pomocí blokového diagramu výše. To znamená neznámý systém je třeba identifikovat a adaptivní filtr se pokusí upravit filtr aby to bylo co nejblíže , při použití pouze pozorovatelných signálů , a ; ale , a nejsou přímo pozorovatelné. Jeho řešení úzce souvisí s Wienerův filtr.
odhadovaný filtr; interpretovat jako odhad filtračních koeficientů po n Vzorky
Idea
Základní myšlenkou LMS filtru je přiblížit se k optimální hmotnosti filtru aktualizací hmotností filtru tak, aby konvergoval k optimální hmotnosti filtru. To je založeno na algoritmu gradientního sestupu. Algoritmus začíná předpokládáním malých vah (ve většině případů nula) a v každém kroku nalezením gradientu střední kvadratické chyby se váhy aktualizují. To znamená, že pokud je gradient MSE pozitivní, znamená to, že by chyba neustále se zvyšujte pozitivně, pokud se pro další iterace používá stejná váha, což znamená, že musíme snížit váhy. Stejným způsobem, pokud je gradient záporný, musíme zvýšit váhy. Rovnice aktualizace hmotnosti je
,
kde představuje chybu střední kvadrát a je konvergenční koeficient.
Záporné znaménko ukazuje, že klesáme po svahu chyby, najít hmotnosti filtrů, , které minimalizují chybu.
Chyba střední kvadratury jako funkce váh filtru je kvadratická funkce, což znamená, že má pouze jedno extrém, které minimalizuje chybu střední kvadrát, což je optimální váha. LMS tedy přistupuje k této optimální váze vzestupně / sestupně dolů křivkou střední kvadratické chyby vs. hmotnosti filtru.
Derivace
Myšlenkou filtrů LMS je použití nejstrmější sestup najít hmotnosti filtrů které minimalizují a nákladová funkce. Začneme definováním nákladové funkce jako
Tato nákladová funkce () je střední kvadratická chyba a LMS ji minimalizuje. Tady dostává své jméno LMS. Přihlašování nejstrmější sestup znamená vzít částečné derivace vzhledem k jednotlivým položkám vektoru koeficientu (hmotnosti) filtru
Nyní, je vektor, který ukazuje na nejstrmější vzestup nákladové funkce. Abychom našli minimum nákladové funkce, musíme udělat krok opačným směrem než . Vyjádřit to matematicky
kde je velikost kroku (adaptační konstanta). To znamená, že jsme našli algoritmus postupné aktualizace, který minimalizuje nákladovou funkci. Bohužel tento algoritmus není realizovatelný, dokud nebudeme vědět .
Obecně se výše uvedené očekávání nepočítá. Místo toho pro spuštění LMS v online prostředí (aktualizace po obdržení každého nového vzorku) používáme okamžitý odhad tohoto očekávání. Viz. níže.
Zjednodušení
U většiny systémů funkce očekávání musí být přibližné. Toho lze dosáhnout pomocí následujícího nezaujatého odhadce
kde označuje počet vzorků, které pro tento odhad použijeme. Nejjednodušší případ je
V tomto jednoduchém případě následuje aktualizační algoritmus jako
Ve skutečnosti to představuje aktualizační algoritmus pro filtr LMS.
Shrnutí algoritmu LMS
Algoritmus LMS pro a Filtr této objednávky lze shrnout jako
Parametry:
pořadí filtrování
velikost kroku
Inicializace:
Výpočet:
Pro
Konvergence a stabilita v průměru
Vzhledem k tomu, že algoritmus LMS nepoužívá přesné hodnoty očekávání, váhy by nikdy nedosáhly optimálních vah v absolutním smyslu, ale průměrně je možná konvergence. To znamená, že i když se váhy mohou měnit o malé částky, mění se to o optimálních vahách. Pokud je však rozptyl, s nímž se váhy mění, velký, průměrná konvergence by byla zavádějící. K tomuto problému může dojít, pokud je hodnota velikosti kroku není zvolen správně.
Li je zvoleno velké, množství, s nímž se váhy mění, silně závisí na odhadu gradientu, a tak se váhy mohou měnit o velkou hodnotu, takže gradient, který byl v prvním okamžiku záporný, se nyní může stát kladným. A v druhém okamžiku se váha může změnit v opačném směru o velké množství kvůli negativnímu gradientu a bude tak stále oscilovat s velkým rozptylem optimálních vah. Na druhou stranu, pokud je vybrána jako příliš malá, čas konvergovat na optimální váhy bude příliš velký.
Tudíž horní hranice je potřeba, která je uvedena jako
kde je největší vlastní hodnota z autokorelace matice . Pokud tato podmínka není splněna, algoritmus se stane nestabilním a rozchází se.
Maximální rychlosti konvergence je dosaženo, když
kde je nejmenší vlastní číslo z Vzhledem k tomu je menší nebo rovno tomuto optimu, rychlost konvergence je určena s větší hodnotou přináší rychlejší konvergenci. To znamená, že rychlejší konvergence lze dosáhnout, když je blízko , tj. maximální dosažitelná rychlost konvergence závisí na šíření vlastního čísla z .
A bílý šum signál má autokorelační matici kde je rozptyl signálu. V tomto případě jsou všechna vlastní čísla stejná a šíření vlastních čísel je minimální ve všech možných maticích. Obecná interpretace tohoto výsledku je tedy taková, že LMS konverguje rychle pro bílé vstupní signály a pomalu pro barevné vstupní signály, jako jsou procesy s nízkými -propustné nebo horní propustné charakteristiky.
Je důležité si uvědomit, že výše uvedená horní hranice vynucuje stabilitu pouze v průměru, ale koeficienty může stále růst nekonečně velký, tj. divergence koeficientů je stále možná. Praktičtější vazba je
kde označuje stopa z . Tato vazba zaručuje, že koeficienty se nerozcházejí (v praxi hodnota by nemělo být zvoleno blízko této horní meze, protože je to poněkud optimistické kvůli aproximacím a předpokladům učiněným při odvození vazby).
Hlavní nevýhodou „čistého“ algoritmu LMS je, že je citlivý na změnu měřítka svého vstupu . Proto je velmi obtížné (ne-li nemožné) zvolit a míra učení který zaručuje stabilitu algoritmu (Haykin 2002). The Normalizovaný filtr nejmenších středních čtverců (NLMS) je varianta algoritmu LMS, která tento problém řeší normalizací s výkonem vstupu. Algoritmus NLMS lze shrnout jako:
Parametry:
pořadí filtrů
velikost kroku
Inicializace:
Výpočet:
Pro
Optimální rychlost učení
Lze ukázat, že pokud nedojde k rušení (), pak je optimální rychlost učení pro algoritmus NLMS
a je nezávislá na vstupu a skutečná (neznámá) impulzní odezva . V obecném případě s rušením (), optimální rychlost učení je
Výsledky výše předpokládají, že signály a vzájemně nesouvisí, což je v praxi obecně případ.
Důkaz
Nechte vychýlení filtru definovat jako , můžeme odvodit očekávané vychýlení dalšího vzorku jako:
Nechat a
Za předpokladu nezávislosti máme:
Optimální rychlost učení se nachází na , což vede k: