LPBoost - LPBoost - Wikipedia
Posílení lineárního programování (LPBoost) je klasifikovaný pod dohledem z posílení rodina klasifikátorů. LPBoost maximalizuje a okraj mezi tréninkovými vzorky různých tříd a tudíž také patří do třídy supervizních klasifikačních algoritmů s maximalizací marže. Zvažte klasifikační funkci
který klasifikuje vzorky z prostoru do jedné ze dvou tříd s označením 1 a -1. LPBoost je algoritmus Učit se taková klasifikační funkce dostala sadu příkladů školení se známými štítky tříd. LPBoost je a strojové učení Tato technika je zvláště vhodná pro aplikace společné klasifikace a výběru funkcí ve strukturovaných doménách.
Přehled LPBoost
Stejně jako ve všech posilovacích klasifikátorech má funkce konečné klasifikace tvar
kde jsou záporné váhy pro slabý klasifikátory . Každý jednotlivý slabý klasifikátor může být o něco lepší než náhodné, ale výsledná lineární kombinace mnoha slabých klasifikátorů může fungovat velmi dobře.
Konstrukce LPBoost počínaje prázdnou sadou slabých klasifikátorů. Iterativně je vybrán, přidán a všechny váhy jeden slabý klasifikátor, který se přidá do sady zvažovaných slabých klasifikátorů. pro aktuální sadu slabých klasifikátorů jsou upraveny. To se opakuje, dokud nezůstanou žádné slabé klasifikátory, které chcete přidat.
Vlastnost, že jsou upraveny všechny váhy klasifikátoru v každé iteraci, je známá jako zcela korektivní vlastnictví. Metody včasného posílení, jako je AdaBoost nemají tuto vlastnost a konvergují pomaleji.
Lineární program
Obecněji řečeno být možná nekonečnou sadou slabých klasifikátorů, nazývaných také hypotézy. Jeden způsob, jak si zapsat problém, který LPBoost řeší, je jako lineární program s nekonečně mnoha proměnnými.
Prvotní lineární program LPBoost optimalizující vektor záporné hmotnosti , nezáporný vektor ochablých proměnných a okraj je následující.
Všimněte si účinků uvolněných proměnných : jejich jedna norma je v objektivní funkci penalizována konstantním faktorem , což - je-li dostatečně malé - vždy vede k prvotnímu proveditelnému lineárnímu programu.
Zde jsme převzali notaci prostoru parametrů , tak, že na výběr slabý klasifikátor je jednoznačně definována.
Když byl výše uvedený lineární program poprvé zapsán v raných publikacích o posilovacích metodách, byl ignorován jako neřešitelný kvůli velkému počtu proměnných . Teprve později bylo zjištěno, že takové lineární programy lze skutečně efektivně vyřešit klasickou technikou generování sloupců.
Generování sloupců pro LPBoost
V lineární program A sloupec odpovídá primární proměnné. Generování sloupců je technika řešení velkých lineárních programů. Obvykle funguje v omezeném problému, který se zabývá pouze podmnožinou proměnných. Generováním iterativních proměnných iterativně a na vyžádání se nakonec obnoví původní neomezený problém se všemi proměnnými. Chytrým výběrem sloupců pro generování problému lze vyřešit tak, že zatímco stále zaručuje, že získané řešení bude optimální pro původní úplný problém, musí být vytvořen pouze malý zlomek sloupců.
LPBoost duální problém
Sloupce v primárním lineárním programu odpovídají řádkům v duální lineární program. Ekvivalentní duální lineární program LPBoost je následující lineární program.
Pro lineární programy optimální hodnota primátů a dvojí problém jsou rovny. U výše uvedených prvotních a duálních problémů se optimální hodnota rovná záporné „měkké rezervě“. Měkká marže je velikost marže oddělující pozitivní od negativních tréninkových instancí minus pozitivní ochablé proměnné, které jsou penalizovány za vzorky porušující marži. Měkká rezerva tedy může být pozitivní, i když ne všechny vzorky jsou klasifikační funkcí lineárně odděleny. Ta se nazývá „tvrdá marže“ nebo „realizovaná marže“.
Kritérium konvergence
Zvažte podmnožinu uspokojených omezení v duálním problému. Pro jakoukoli konečnou podmnožinu můžeme vyřešit lineární program a uspokojit tak všechna omezení. Pokud bychom dokázali, že ze všech omezení, která jsme nepřidali k dvojímu problému, není porušeno jediné omezení, dokázali bychom, že řešení našeho omezeného problému je ekvivalentní řešení původního problému. Více formálně, pojďme být optimální hodnotou objektivní funkce pro jakoukoli omezenou instanci. Poté můžeme formulovat problém s hledáním „nejvíce porušeného omezení“ v původním prostoru problému, konkrétně s hledáním tak jako
To znamená, že prohledáváme prostor pro jednoho rozhodnutí pařez maximalizovat levou stranu dvojího omezení. Pokud omezení nemůže být porušeno žádným výběrem rozhodovacího pařezu, žádné z odpovídajících omezení nemůže být aktivní v původním problému a omezený problém je ekvivalentní.
Konstanta penalizace
Kladná hodnota penalizační konstanty je třeba najít pomocí výběr modelu techniky. Pokud se však rozhodneme , kde je počet vzorků školení a , pak nový parametr má následující vlastnosti.
- je horní hranice zlomku tréninkových chyb; to je, pokud označuje počet nesprávně klasifikovaných tréninkových vzorků .
- je dolní mez na zlomku tréninkových vzorků venku nebo na okraji.
Algoritmus
- Vstup:
- Tréninková sada ,
- Školicí štítky ,
- Konvergenční práh
- Výstup:
- Klasifikační funkce
- Inicializace
- Váhy, uniforma
- Okraj
- Počet hypotéz
- Opakovat
- -li pak
- přestávka
- řešení duální LPBoost
- Lagrangeovští multiplikátoři řešení dvojitého problému LPBoost
Všimněte si, že pokud je práh konvergence nastaven na získaným řešením je globální optimální řešení výše uvedeného lineárního programu. V praxi, je nastavena na malou kladnou hodnotu, aby bylo možné rychle získat dobré řešení.
Realizovaná marže
Skutečná rezerva oddělující tréninkové vzorky se nazývá realizovaná marže a je definován jako
Realizovaná marže může a bude obvykle záporná v prvních iteracích. Pro prostor hypotézy, který umožňuje vyčlenění jakéhokoli jednotlivého vzorku, jak je tomu obvykle, bude realizovaná marže nakonec konvergovat k nějaké pozitivní hodnotě.
Záruka konvergence
I když je prokázáno, že výše uvedený algoritmus konverguje, na rozdíl od jiných posilovacích formulací, jako je AdaBoost a TotalBoost, pro LPBoost nejsou známy žádné hranice konvergence. V praxi je však známo, že LPBoost konverguje rychle, často rychleji než jiné formulace.
Základní studenti
LPBoost je souborové učení metodou a tudíž nediktuje výběr základních žáků, prostor hypotéz . Demiriz a kol. ukázal, že za mírných předpokladů lze použít jakéhokoli základního studenta. Pokud jsou základní žáci obzvláště jednoduchí, jsou často označováni jako rozhodovací pařezy.
Počet základních studentů, kteří se v rámci Boostingu běžně používají v literatuře, je velký. Například pokud , základní student může být lineární měkká marže podporovat vektorový stroj. Nebo ještě jednodušší, jednoduchý pahýl formuláře
Výše uvedené pařezy vypadají pouze v jedné dimenzi vstupního prostoru a jednoduše prahuje příslušný sloupec vzorku pomocí konstantní prahové hodnoty . Poté se může rozhodnout v obou směrech, v závislosti na pro kladnou nebo zápornou třídu.
Vzhledem k vahám pro tréninkové vzorky sestrojení optimálního rozhodovacího pahýlu výše uvedeného formuláře jednoduše zahrnuje prohledávání všech sloupců vzorků a určení , a za účelem optimalizace funkce zesílení.
Reference
- Posílení lineárního programování pomocí generování sloupců, A. Demiriz a K.P. Bennett a J. Shawe-Taylor. Publikováno 2002 v Kluwer Machine Learning 46, strany 225–254.