Regularizace potrubí - Manifold regularization
v strojové učení, Regularizace potrubí je technika pro použití tvaru datové sady k omezení funkcí, které by se na této datové sadě měly naučit. U mnoha problémů se strojovým učením data, která se mají naučit, nepokrývají celý vstupní prostor. Například a systém rozpoznávání obličeje nemusí být nutné klasifikovat žádný možný obrázek, ale pouze podmnožinu obrázků, které obsahují tváře. Technika mnohočetného učení předpokládá, že příslušná podmnožina dat pochází z potrubí, matematická struktura s užitečnými vlastnostmi. Tato technika také předpokládá, že funkce, která se má naučit, je hladký: data s různými štítky pravděpodobně nebudou blízko u sebe, a proto by se funkce označování neměla rychle měnit v oblastech, kde je pravděpodobně mnoho datových bodů. Z tohoto předpokladu může algoritmus různého regularizace pomocí neznačených dat informovat, kde se naučená funkce může rychle měnit a kde není, pomocí rozšíření techniky Tichonovova regularizace. Algoritmy regularizace potrubí se mohou rozšířit učení pod dohledem algoritmy ve Windows učení pod dohledem a transdukční učení nastavení, kde jsou k dispozici neoznačené údaje. Tato technika byla použita pro aplikace zahrnující lékařské zobrazování, geografické zobrazování a rozpoznávání objektů.
Regulátor rozdělovače
Motivace
Regularizace potrubí je typ regulace, rodina technik, která redukuje nadměrné vybavení a zajišťuje, že problém je dobře pózoval penalizací komplexních řešení. Zejména regularizace potrubí rozšiřuje techniku Tichonovova regularizace jak je aplikováno na Reprodukce jádra Hilbertovy mezery (RKHS). Podle standardní Tikhonovovy regularizace na RKHS se učící algoritmus pokouší naučit se funkci z prostoru hypotéz funkcí . Prostor hypotézy je RKHS, což znamená, že je spojen s a jádro , a tak funguje každý kandidát má norma , což představuje složitost kandidátské funkce v prostoru hypotézy. Když algoritmus uvažuje o kandidátské funkci, vezme v úvahu svou normu, aby penalizoval složité funkce.
Formálně, vzhledem k souboru označených tréninkových dat s a a funkce ztráty , učící se algoritmus využívající Tikhonovovu regularizaci se pokusí výraz vyřešit
kde je hyperparametr který určuje, nakolik bude algoritmus preferovat jednodušší funkce před funkcemi, které lépe vyhovují datům.
Regularizace potrubí přidává druhý regularizační termín, vnitřní regulátor, do regulátor okolní teploty používá se ve standardní regulaci Tikhonova. Pod mnohonásobný předpoklad ve strojovém učení příslušná data nepocházejí z celého vstupního prostoru , ale místo toho z nelineárního potrubí . Geometrie tohoto potrubí, vnitřní prostor, se používá ke stanovení normalizační normy.[1]
Laplaciánská norma
Existuje mnoho možných možností . Mnoho přirozených možností zahrnuje gradient na potrubí , který může poskytnout měřítko, jak hladká je cílová funkce. Hladká funkce by se měla pomalu měnit tam, kde jsou vstupní data hustá; to je přechod by měl být malý, kde mezní hustota pravděpodobnosti , hustota pravděpodobnosti náhodně nakresleného datového bodu, který se objeví na , je velký. To dává jednu vhodnou volbu pro vnitřní regulátor:
V praxi nelze tuto normu vypočítat přímo z důvodu okrajového rozdělení není známo, ale lze jej odhadnout z poskytnutých údajů. Zejména pokud jsou vzdálenosti mezi vstupními body interpretovány jako graf, pak Laplaciánská matice grafu může pomoci odhadnout mezní rozdělení. Předpokládejme, že vstupní data obsahují označené příklady (páry vstupu a štítek ) a neoznačené příklady (vstupy bez přidružených štítků). Definovat být maticí hranových vah pro graf, kde je míra vzdálenosti mezi datovými body a . Definovat být diagonální matice s a být Laplaciánská matice . Pak jako počet datových bodů zvyšuje, konverguje k Operátor Laplace – Beltrami , který je divergence přechodu .[2][3] Pak, pokud je vektor hodnot hodnoty na data, , vnitřní normu lze odhadnout:
Jako počet datových bodů zvyšuje, tato empirická definice konverguje k definici, když je známo.[1]
Řešení problému regularizace
Pomocí závaží a pro okolní a vnitřní regulátory se konečný výraz, který má být vyřešen, stává:
Stejně jako u ostatních metody jádra, může to být nekonečně-dimenzionální prostor, takže pokud nelze výraz regularizace explicitně vyřešit, je nemožné hledat řešení v celém prostoru. Místo toho reprezentativní věta ukazuje, že za určitých podmínek o volbě normy , optimální řešení musí být lineární kombinací jádra se středem v každém ze vstupních bodů: u některých vah ,
Pomocí tohoto výsledku je možné hledat optimální řešení prohledáním konečně-dimenzionálního prostoru definovaného možnými možnostmi .[1]
Aplikace
Regularizace potrubí může rozšířit řadu algoritmů, které lze vyjádřit pomocí Tikhonovovy regularizace, výběrem vhodné funkce ztráty a prostor hypotéz . Dva běžně používané příklady jsou rodiny podporovat vektorové stroje a regularizované nejmenší čtverce algoritmy. (Regularizované nejmenší čtverce zahrnují algoritmus hřebenové regrese; související algoritmy LASSO a elastická regularizace sítě lze vyjádřit jako podpůrné vektorové stroje.[4][5]) Rozšířené verze těchto algoritmů se nazývají Laplacian Regularized Least Squares (zkráceně LapRLS) a Laplacian Support Vector Machines (LapSVM).[1]
Laplaciánské regulované nejméně čtverce (LapRLS)
Regularizovaná metoda nejmenších čtverců (RLS) je rodina regresní algoritmy: algoritmy, které předpovídají hodnotu pro jeho vstupy , s cílem, aby se předpokládané hodnoty blížily skutečným štítkům dat. RLS je zejména navržen tak, aby minimalizoval střední čtvercová chyba mezi předpokládanými hodnotami a skutečnými štítky, s výhradou regularizace. Ridgeova regrese je jednou z forem RLS; obecně je RLS stejný jako hřebenová regrese v kombinaci s metoda jádra.[Citace je zapotřebí ] Prohlášení o problému pro RLS je výsledkem volby funkce ztráty v Tikhonově regularizaci jako střední kvadratická chyba:
Díky reprezentativní věta, řešení lze zapsat jako vážený součet jádra vyhodnoceného v datových bodech:
a řešení pro dává:
kde je definována jako matice jádra s , a je vektor datových štítků.
Přidání laplaciánského výrazu pro regularizaci potrubí dává prohlášení Laplacian RLS:
Reprezentativní věta pro regularizaci potrubí opět dává
a tím se získá výraz pro vektor . Pronájem být jádrovou maticí, jak je uvedeno výše, být vektorem datových štítků a být bloková matice