Analýza nezávislých komponent - Independent component analysis
Část série na |
Strojové učení a dolování dat |
---|
Místa pro strojové učení |
Související články |
Tento článek má několik problémů. Prosím pomozte vylepši to nebo diskutovat o těchto problémech na internetu diskusní stránka. (Zjistěte, jak a kdy tyto zprávy ze šablony odebrat) (Zjistěte, jak a kdy odstranit tuto zprávu šablony)
|
v zpracování signálu, analýza nezávislých komponent (ICA) je výpočetní metoda pro oddělení a vícerozměrný signál do aditivních dílčích složek. To se provádí za předpokladu, že subkomponenty jsou negaussovské signály a že jsou statisticky nezávislé od sebe navzájem. ICA je zvláštní případ slepá separace zdrojů. Běžným příkladem aplikace je „problém s koktejlovou párty „naslouchání řeči jedné osoby v hlučné místnosti.[1]
Úvod
Analýza nezávislých komponent se pokouší rozložit multivariační signál na nezávislé negaussovské signály. Jako příklad je zvuk obvykle signál, který se skládá z numerického sčítání signálů z několika zdrojů v každém okamžiku t. Otázkou tedy je, zda je možné oddělit tyto přispívající zdroje od pozorovaného celkového signálu. Pokud je předpoklad statistické nezávislosti správný, slepé ICA oddělení smíšeného signálu poskytuje velmi dobré výsledky.[Citace je zapotřebí ] Používá se také pro signály, které by neměly být generovány smícháním pro účely analýzy.
Jednoduchá aplikace ICA je „problém s koktejlovou párty ", kde jsou podkladové řečové signály odděleny od ukázkových dat skládajících se z lidí, kteří v místnosti hovoří současně. Problém se obvykle zjednoduší tím, že nebudeme předpokládat žádná časová zpoždění ani ozvěny. Všimněte si, že filtrovaný a zpožděný signál je kopií závislé komponenty, a tím není porušen předpoklad statistické nezávislosti.
Míchací závaží pro konstrukci pozorované signály z komponenty lze umístit do matice. Je důležité vzít v úvahu, že pokud zdroje jsou přítomny alespoň k obnovení původních signálů jsou nutná pozorování (např. mikrofony, pokud je pozorovaným signálem zvuk). Pokud existuje stejný počet pozorování a zdrojových signálů, směšovací matice je čtvercová (). Jiné případy nedostatečného určení () a předurčeno () byly vyšetřeny.
To, že ICA oddělení smíšených signálů poskytuje velmi dobré výsledky, je založeno na dvou předpokladech a třech účincích míchání zdrojových signálů. Dva předpoklady:
- Zdrojové signály jsou na sobě nezávislé.
- Hodnoty v každém zdrojovém signálu mají negaussovské distribuce.
Tři efekty míchání zdrojových signálů:
- Nezávislost: Podle předpokladu 1 jsou zdrojové signály nezávislé; jejich signální směsi však nejsou. Je to proto, že signální směsi sdílejí stejné zdrojové signály.
- Normálnost: Podle Teorém centrálního limitu, rozdělení součtu nezávislých náhodných proměnných s konečnou odchylkou směřuje ke Gaussovskému rozdělení.
Volně řečeno, součet dvou nezávislých náhodných proměnných má obvykle distribuci, která je blíže Gaussian než kterákoli ze dvou původních proměnných. Zde považujeme hodnotu každého signálu za náhodnou proměnnou. - Složitost: Časová složitost jakékoli signální směsi je větší než u nejjednoduššího základního zdrojového signálu.
Tyto zásady přispívají k základnímu založení ICA. Pokud jsou signály, které náhodně extrahujeme ze sady směsí, nezávislé jako signály zdrojů a mají negaussovské histogramy nebo mají nízkou složitost jako zdrojové signály, musí to být zdrojové signály.[3][4]
Definování nezávislosti komponent
ICA najde nezávislé složky (také nazývané faktory, latentní proměnné nebo zdroje) maximalizací statistické nezávislosti odhadovaných složek. Můžeme si vybrat jeden z mnoha způsobů, jak definovat proxy pro nezávislost, a tato volba určuje formu algoritmu ICA. Dvě nejširší definice nezávislosti pro ICA jsou
- Minimalizace vzájemných informací
- Maximalizace non-Gaussianity
MinimalizaceVzájemné informace (MMI) rodina ICA algoritmů používá opatření jako Kullback-Leiblerova divergence a maximální entropie. Rodina negaussianity ICA algoritmů, motivovaná teorém centrálního limitu, používá špičatost a negentropie.
Typické algoritmy pro ICA používají centrování (odečtením průměru k vytvoření signálu nulové střední hodnoty), bělení (obvykle s rozklad vlastních čísel ), a snížení rozměrů jako kroky předběžného zpracování za účelem zjednodušení a snížení složitosti problému pro skutečný iterativní algoritmus. Bělení a zmenšení rozměrů lze dosáhnout pomocí analýza hlavních komponent nebo rozklad singulární hodnoty. Bělení zajišťuje, že se všemi rozměry se zachází stejně a priori před spuštěním algoritmu. Mezi známé algoritmy pro ICA patří infomax, FastICA, NEFRIT, a analýza komponent nezávislá na jádře, mezi ostatními. Obecně platí, že ICA nedokáže identifikovat skutečný počet zdrojových signálů, jednoznačně správné uspořádání zdrojových signálů ani správné měřítko (včetně znaménka) zdrojových signálů.
ICA je důležité oddělení slepého signálu a má mnoho praktických aplikací. Úzce souvisí s (nebo dokonce zvláštním případem) hledání a faktoriální kód dat, tj. nová vektorově oceněná reprezentace každého datového vektoru tak, aby byl jedinečně kódován výsledným kódovým vektorem (bezztrátové kódování), ale kódové komponenty jsou statisticky nezávislé.
Matematické definice
Lineární nezávislou analýzu komponent lze rozdělit na hlučné a hlučné případy, kde bezhlučný ICA je speciální případ hlučného ICA. Nelineární ICA je třeba považovat za samostatný případ.
Obecná definice
Data jsou reprezentována pozorovanými náhodný vektor a skryté komponenty jako náhodný vektor Úkolem je transformovat pozorovaná data pomocí lineární statické transformace tak jako do vektoru maximálně nezávislých komponent měřeno nějakou funkcí nezávislosti.
Generativní model
Lineární bezhlučný ICA
Komponenty pozorovaného náhodného vektoru jsou generovány jako součet nezávislých komponent , :
váženo směšovacími závažími .
Stejný generativní model lze napsat ve vektorové podobě jako , kde pozorovaný náhodný vektor je reprezentován základními vektory . Základní vektory tvoří sloupce směšovací matice a generativní vzorec lze zapsat jako , kde .
Vzhledem k modelu a realizacím (ukázky) náhodného vektoru , úkolem je odhadnout jak směšovací matici a zdroje . To se provádí adaptivním výpočtem vektory a nastavení nákladové funkce, která maximalizuje ne-gaussianitu vypočítaného nebo minimalizuje vzájemné informace. V některých případech lze ve funkci nákladů použít apriorní znalost rozdělení pravděpodobnosti zdrojů.
Původní zdroje lze obnovit vynásobením pozorovaných signálů s inverzí směšovací matice , známý také jako nemísící matice. Zde se předpokládá, že směšovací matice je čtvercová (). Pokud je počet bazických vektorů větší než rozměrnost pozorovaných vektorů, , úkol je neúplný, ale stále je řešitelný s pseudo inverzní.
Lineární hlučný ICA
S přidaným předpokladem nulového průměru a nekorelovaného gaussovského šumu , má formu model ICA .
Nelineární ICA
Míchání zdrojů nemusí být lineární. Použití nelineární směšovací funkce s parametry the nelineární ICA model je .
Identifikovatelnost
Nezávislé komponenty jsou identifikovatelné až do permutace a škálování zdrojů. Tato identifikovatelnost vyžaduje, aby:
- Maximálně jeden ze zdrojů je Gaussian,
- Počet pozorovaných směsí, , musí být minimálně stejně velký jako počet odhadovaných komponent : . Je to ekvivalentní, když se říká, že směšovací matice musí být plné hodnost aby jeho inverze existovala.
Binární ICA
Speciální variantou ICA je binární ICA, ve kterém jsou jak zdroje signálu, tak monitory v binární formě a pozorování z monitorů jsou disjunktivní směsi binárních nezávislých zdrojů. Ukázalo se, že problém má aplikace v mnoha doménách včetně lékařská diagnóza, přiřazení více klastrů, síťová tomografie a správa internetových zdrojů.
Nechat být množina binárních proměnných z monitory a být množina binárních proměnných z Zdroje. Připojení zdroje a monitoru představuje (neznámá) směšovací matice , kde označuje tento signál z i-tý zdroj lze pozorovat pomocí j-th monitor. Systém funguje následovně: kdykoli, pokud je to zdroj je aktivní () a je připojen k monitoru () poté monitor bude pozorovat nějakou aktivitu (). Formálně máme:
kde je Boolean AND a je logická OR. Všimněte si, že hluk není explicitně modelován, spíše s ním lze zacházet jako s nezávislými zdroji.
Výše uvedený problém lze heuristicky vyřešit [5] za předpokladu, že proměnné jsou spojité a běží FastICA na binárních datech pozorování získat směšovací matici (skutečné hodnoty), pak použijte kulaté číslo techniky na získat binární hodnoty. Ukázalo se, že tento přístup přináší vysoce nepřesný výsledek.[Citace je zapotřebí ]
Další metodou je použití dynamické programování: rekurzivní rozbití pozorovací matice do svých dílčích matic a spustit odvozovací algoritmus na těchto dílčích matricích. Klíčovým pozorováním, které vede k tomuto algoritmu, je submatice z kde odpovídá nezaujaté pozorovací matici skrytých komponent, které nemají připojení k -th monitor. Experimentální výsledky z [6] ukazují, že tento přístup je přesný při mírné hladině hluku.
Zobecněný binární rámec ICA [7] zavádí širší formulaci problému, která nevyžaduje žádné znalosti generativního modelu. Jinými slovy, tato metoda se pokouší rozložit zdroj na jeho nezávislé komponenty (pokud je to možné a bez ztráty jakékoli informace) bez předchozího předpokladu o způsobu, jakým byl generován. Ačkoli se tento problém jeví jako poměrně složitý, lze jej přesně vyřešit pomocí a větev a svázaný algoritmus vyhledávacího stromu nebo těsně horní hranice s jedinou násobením matice s vektorem.
Metody pro oddělení slepých zdrojů
Pronásledování projekce
Směsi signálů mají tendenci mít Gaussovy funkce hustoty pravděpodobnosti a zdrojové signály mají tendenci mít jiné než Gaussovské funkce hustoty pravděpodobnosti. Každý zdrojový signál lze extrahovat ze sady signálních směsí tím, že se vezme vnitřní produkt váhového vektoru a ty signální směsi, kde tento vnitřní produkt poskytuje ortogonální projekci signálních směsí. Zbývající výzvou je nalezení takového váhového vektoru. Jedním typem metody je pronásledování projekce.[8][9]
Sledování projekce hledá jednu projekci po druhé tak, aby extrahovaný signál byl co nejvíce negaussovský. To je v rozporu s ICA, který obvykle extrahuje M signály současně z M signální směsi, což vyžaduje odhad a M × M směšovací matice. Jednou z praktických výhod sledování projekce oproti ICA je, že méně než M signály lze v případě potřeby extrahovat, odkud je extrahován každý zdrojový signál M signální směsi pomocí M- vektor hmotnosti prvku.
Můžeme použít špičatost obnovit signál více zdrojů nalezením správných vektorů hmotnosti pomocí sledování projekce.
Kurtosis funkce hustoty pravděpodobnosti signálu pro konečný vzorek se počítá jako
kde je průměr vzorku z , extrahované signály. Konstanta 3 zajišťuje, že Gaussovy signály mají nulovou špičatost, super gaussovské signály mají pozitivní špičatost a sub Gaussovské signály mají negativní špičatost. Jmenovatelem je rozptyl z a zajišťuje, že měřená špičatost zohledňuje rozptyl signálu. Cílem sledování projekce je maximalizovat špičatost a provést extrahovaný signál co nejneobvyklejší.
Když použijeme kurtosu jako měřítko nenormality, můžeme nyní zkoumat, jak je kurtosa signálu extrahováno ze sady M směsi se mění jako váhový vektor se otáčí kolem počátku. Vzhledem k našemu předpokladu, že každý zdrojový signál je super gaussian, co bychom očekávali:
- špičatost extrahovaného signálu být maximální přesně kdy .
- špičatost extrahovaného signálu být maximální, když je kolmý k promítnutým osám nebo , protože víme, že optimální vektor hmotnosti by měl být kolmý k transformované ose nebo .
Pro více signálů zdrojové směsi můžeme použít špičatost a Gram-Schmidt Ortogonalizace (GSO) k obnovení signálů. Dáno M signální směsi v an M-dimenzionální prostor, GSO promítá tyto datové body na (M-1) -dimenzionální prostor pomocí váhového vektoru. Můžeme zaručit nezávislost extrahovaných signálů pomocí GSO.
Aby bylo možné najít správnou hodnotu , můžeme použít klesání metoda. Nejprve vybělíme data a transformujeme se do nové směsi , který má jednotkovou odchylku, a . Tohoto procesu lze dosáhnout aplikací Rozklad singulární hodnoty na ,
Změna měřítka každého vektoru a nechte . Signál extrahovaný váženým vektorem je . Pokud váhový vektor w má délku jednotky, tj , pak lze kurtosu napsat jako:
Proces aktualizace pro je:
kde je malá konstanta, která to zaručuje konverguje k optimálnímu řešení. Po každé aktualizaci se normalizujeme a nastavit a opakujte proces aktualizace až do konvergence. Můžeme také použít jiný algoritmus k aktualizaci váhového vektoru .
Jiný přístup je použití negentropie[10][11] místo kurtosy. Používání negentropie je robustnější metoda než kurtosis, protože kurtosis je velmi citlivá na odlehlé hodnoty. Metody negentropy jsou založeny na důležité vlastnosti Gaussova rozdělení: Gaussova proměnná má největší entropii ze všech spojitých náhodných proměnných se stejnou odchylkou. To je také důvod, proč chceme najít nejvíce negauské proměnné. Jednoduchý důkaz najdete v Diferenciální entropie.
y je Gaussova náhodná proměnná se stejnou kovarianční maticí jako x
Aproximace pro negentropii je
Důkaz lze najít v původních dokumentech Comona;[12][10] to bylo reprodukováno v knize Analýza nezávislých komponent autori: Aapo Hyvärinen, Juha Karhunen a Erkki Oja[13] Tato aproximace také trpí stejným problémem jako špičatost (citlivost na odlehlé hodnoty). Byly vyvinuty další přístupy.[14]
Výběr z a jsou
- a
Na základě infomax
Infomax ICA[15] je v podstatě vícerozměrná, paralelní verze pronásledování projekce. Zatímco sledování projekce extrahuje řadu signálů jeden po druhém ze sady M signální směsi, extrakty ICA M signály paralelně. To má tendenci dělat ICA robustnější než sledování projekce.[16]
Používá se metoda sledování projekce Gram-Schmidt ortogonalizace k zajištění nezávislosti extrahovaného signálu při použití ICA infomax a maximální pravděpodobnost odhad zajistit nezávislost extrahovaného signálu. Nereformality extrahovaného signálu je dosaženo přiřazením příslušného modelu nebo před tímto signálem.
Proces ICA založený na infomax ve zkratce je: dána sada signálních směsí a soubor identického nezávislého modelu kumulativní distribuční funkce (CDS) , hledáme směšovací matici což maximalizuje kloub entropie signálů , kde jsou signály extrahované . Vzhledem k optimálnímu , signály mají maximální entropii a jsou tedy nezávislé, což zajišťuje, že extrahované signály jsou také nezávislé. je invertibilní funkce a je to signální model. Všimněte si, že pokud model zdrojového signálu funkce hustoty pravděpodobnosti odpovídá funkce hustoty pravděpodobnosti extrahovaného signálu , poté maximalizujte společnou entropii také maximalizuje množství vzájemné informace mezi a . Z tohoto důvodu je použití entropie k extrakci nezávislých signálů známé jako infomax.
Uvažujme entropii vektorové proměnné , kde je sada signálů extrahovaných směšovací maticí . Pro konečnou sadu hodnot vzorkovaných z distribuce ve formátu PDF , entropie lze odhadnout jako:
Společný pdf lze prokázat, že souvisí se společným souborem pdf extrahovaných signálů vícerozměrnou formou:
kde je Jacobian matrix. My máme , a je pdf předpokládaný pro zdrojové signály proto
proto,
Víme to kdy , má rovnoměrné rozdělení a je maximalizován. Od té doby
kde je absolutní hodnota determinantu směšovací matice . Proto,
tak,
od té doby a maximalizovat neovlivňuje , abychom mohli maximalizovat funkci
dosáhnout nezávislosti extrahovaného signálu.
Pokud existují M okrajové soubory PDF společného modelu pdf jsou nezávislé a pro zdrojové signály používají běžně super gaussovský model pdf , pak máme
V součtu, vzhledem k pozorované signální směsi , odpovídající sada extrahovaných signálů a model zdrojového signálu , můžeme najít optimální směšovací matici , a učinit extrahované signály nezávislé a negaussovské. Stejně jako situace sledování projekce můžeme k nalezení optimálního řešení směšovací matice použít metodu gradientního sestupu.
Na základě odhadu maximální pravděpodobnosti
Maximální pravděpodobnost odhad (MLE) je standardní statistický nástroj pro zjišťování hodnot parametrů (např. směšovací matice ), které poskytují nejvhodnější data (např. extrahované signály) ) k danému modelu (např. předpokládaná funkce hustoty pravděpodobnosti kloubu (pdf) zdrojových signálů).[16]
The ML „model“ obsahuje specifikaci pdf, což je v tomto případě pdf neznámých zdrojových signálů . Použitím ML ICA, cílem je najít nemísící matici, která poskytuje extrahované signály se společným pdf co nejpodobnějším společnému pdf neznámých zdrojových signálů .
MLE je tedy založen na předpokladu, že pokud je model pdf a parametry modelu jsou správné, měla by být pro data získána vysoká pravděpodobnost které byly skutečně pozorovány. Naopak, pokud je daleko od správných hodnot parametrů, lze očekávat nízkou pravděpodobnost pozorovaných dat.
Použitím MLE, nazýváme pravděpodobnost pozorovaných dat pro danou sadu hodnot parametrů modelu (např. pdf a matice ) pravděpodobnost hodnot modelových parametrů vzhledem k pozorovaným údajům.
Definujeme a pravděpodobnost funkce z :
To se rovná hustotě pravděpodobnosti při , od té doby .
Pokud tedy chceme najít a což s největší pravděpodobností vygenerovalo pozorované směsi z neznámých zdrojových signálů s PDF pak musíme jen najít což maximalizuje pravděpodobnost . Unmixovací matice, která maximalizuje rovnici, je známá jako MLE optimální směšovací matice.
Je běžnou praxí používat protokol pravděpodobnost, protože je to snazší vyhodnotit. Protože logaritmus je monotónní funkce, který maximalizuje funkci také maximalizuje svůj logaritmus . To nám umožňuje převzít výše uvedený logaritmus rovnice, čímž se získá log pravděpodobnost funkce
Pokud dosadíme běžně používané vysokéKurtosis model pdf pro zdrojové signály pak máme
Tato matice který maximalizuje tuto funkci je maximální pravděpodobnost odhad.
Historie a pozadí
Raný obecný rámec pro analýzu nezávislých komponent představili Jeanny Hérault a Bernard Ans z roku 1984,[17] dále rozvinut Christian Jutten v letech 1985 a 1986,[18][19][20] a zdokonalil Pierre Comon v roce 1991,[12] a popularizoval ve své práci z roku 1994.[10] V roce 1995 Tony Bell a Terry Sejnowski představil rychlý a efektivní ICA algoritmus založený na infomax, princip zavedený Ralphem Linskerem v roce 1987.
V literatuře je k dispozici mnoho algoritmů, které provádějí ICA. Nejčastěji používaným, včetně průmyslových aplikací, je algoritmus FastICA vyvinutý společností Hyvärinen a Oja, který používá špičatost jako nákladová funkce. Další příklady spíše souvisejí s slepá separace zdrojů kde se používá obecnější přístup. Například lze zrušit předpoklad nezávislosti a oddělit vzájemně korelované signály, tedy statisticky „závislé“ signály. Sepp Hochreiter a Jürgen Schmidhuber ukázal, jak získat nelineární ICA nebo separaci zdrojů jako vedlejší produkt regulace (1999).[21] Jejich metoda nevyžaduje apriorní znalosti o počtu nezávislých zdrojů.
Aplikace
ICA lze rozšířit o analýzu nefyzických signálů. Například ICA byla použita k objevování diskusních témat v tašce archivů seznamů zpráv.
Níže jsou uvedeny některé aplikace ICA:[3]
- optické zobrazování neuronů[22]
- třídění neuronových špiček[23]
- rozpoznávání obličejů[24]
- modelování receptivních polí primárních zrakových neuronů[25]
- předpovídání cen na akciovém trhu[26]
- mobilní telefon [27]
- barevná detekce zralosti rajčat[28]
- odstraňování artefaktů, jako jsou mrknutí očí, z EEG data.[29]
- analýza změn genové exprese v čase u jedinců buňka Sekvenování RNA experimenty.[30]
- studie klidová stavová síť mozku.[31]
Viz také
Poznámky
- ^ Hyvärinen, Aapo (2013). „Analýza nezávislých komponent: nedávné pokroky“. Filozofické transakce: Matematické, fyzikální a technické vědy. 371 (1984): 20110534. Bibcode:2012RSPTA.37110534H. doi:10.1098 / rsta.2011.0534. ISSN 1364-503X. JSTOR 41739975. PMC 3538438. PMID 23277597.
- ^ Isomura, Takuya; Toyoizumi, Taro (2016). „Místní pravidlo učení pro analýzu nezávislých komponent“. Vědecké zprávy. 6: 28073. Bibcode:2016NatSR ... 628073I. doi:10.1038 / srep28073. PMC 4914970. PMID 27323661.
- ^ A b Kámen, James V. (2004). Analýza nezávislých komponent: úvodní cvičení. Cambridge, Massachusetts: MIT Press. ISBN 978-0-262-69315-8.
- ^ Hyvärinen, Aapo; Karhunen, Juha; Oja, Erkki (2001). Analýza nezávislých komponent (1. vyd.). New York: John Wiley & Sons. ISBN 978-0-471-22131-9.
- ^ Johan Himbergand Aapo Hyvärinen, Analýza nezávislých komponent pro binární data: experimentální studie, Proc. Int. Workshop o analýze nezávislých komponent a separaci slepých signálů (ICA2001), San Diego, Kalifornie, 2001.
- ^ Huy Nguyen a Rong Zheng, Analýza binárních nezávislých komponent nebo směsí, IEEE Transaction on Signal Processing, sv. 59, 7. vydání (červenec 2011), s. 3168–3181.
- ^ Painsky, Amichai; Rosset, Saharon; Feder, Meir (2014). Zobecněná analýza binárních nezávislých komponent. IEEE International Symposium on Information Theory (ISIT), 2014. str. 1326–1330. doi:10.1109 / ISIT.2014.6875048. ISBN 978-1-4799-5186-4. S2CID 18579555.
- ^ James V. Stone (2004); „Analýza nezávislých komponent: Úvod do výuky“, The MIT Press Cambridge, Massachusetts, Londýn, Anglie; ISBN 0-262-69315-1
- ^ Kruskal, JB. 1969; „Směrem k praktické metodě, která pomáhá odhalit strukturu souboru pozorování tím, že najde liniovou transformaci, která optimalizuje nový„ index kondenzace “, strany 427–440 z: Milton, RC, & Nelder, JA (eds), statistický výpočet ; New York, Academic Press
- ^ A b C Pierre Comon (1994) Nezávislá analýza komponent, nový koncept? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf
- ^ Hyvärinen, Aapo; Erkki Oja (2000). "Analýza nezávislých komponent: Algoritmy a aplikace". Neuronové sítě. 4-5. 13 (4–5): 411–430. CiteSeerX 10.1.1.79.7003. doi:10.1016 / s0893-6080 (00) 00026-5. PMID 10946390.
- ^ A b P.Comon, Independent Component Analysis, Workshop on Higher-Order Statistics, July 1991, republished in JL. Lacoume, editor, Higher Order Statistics, str. 29-38. Elsevier, Amsterdam, Londýn, 1992. HAL odkaz
- ^ Hyvärinen, Aapo; Karhunen, Juha; Oja, Erkki (2001). Analýza nezávislých komponent (Dotisk ed.). New York, NY: Wiley. ISBN 978-0-471-40540-5.
- ^ Hyvärinen, Aapo (1998). "Nové aproximace diferenciální entropie pro analýzu nezávislých komponent a sledování projekce". Pokroky v systémech zpracování neurálních informací. 10: 273–279.
- ^ Bell, A. J .; Sejnowski, T. J. (1995). „Přístup maximalizující informace k slepému oddělení a slepému dekonvoluci“, Neural Computation, 7, 1129-1159
- ^ A b James V. Stone (2004). „Analýza nezávislých komponent: Úvod do výuky“, The MIT PressCambridge, Massachusetts, Londýn, Anglie; ISBN 0-262-69315-1
- ^ Hérault, J .; Ans, B. (1984). „Réseau de neurones à synapses modifiables: Décodage de messages sensoriels composites par apprentissage non supervisé et permanent“. Comptes Rendus de l'Académie des Sciences, Série III. 299: 525–528.
- ^ Ans, B., Hérault, J., & Jutten, C. (1985). Adaptéry architektur neuromimetik: Détection de primitive. Cognitiva 85 (Sv. 2, str. 593-597). Paříž: CESTA.
- ^ Hérault, J., Jutten, C., & Ans, B. (1985). Détection de grandeurs primitives dans un message composite par une architecture de calcul neuromimétique en apprentissage non supervisé. Sborník z 10. workshopu Traitement du signal et ses applications (Sv. 2, str. 1017-1022). Nice (Francie): GRETSI.
- ^ Hérault, J., & Jutten, C. (1986). Prostorové nebo časové adaptivní zpracování signálu modely neuronových sítí. Internovat. Konf. o neuronových sítích pro výpočetní techniku (str. 206-211). Snowbird (Utah, USA).
- ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1999). „Extrakce funkcí přes LOCOCODE“ (PDF). Neurální výpočet. 11 (3): 679–714. doi:10.1162/089976699300016629. ISSN 0899-7667. PMID 10085426. S2CID 1642107. Citováno 24. února 2018.
- ^ Brown, GD; Yamada, S; Sejnowski, TJ (2001). "Analýza nezávislých komponent na neurální koktejlové párty". Trendy v neurovědách. 24 (1): 54–63. doi:10.1016 / s0166-2236 (00) 01683-0. PMID 11163888. S2CID 511254.
- ^ Lewicki, MS (1998). "Přehled metod třídění špiček: detekce a klasifikace neurálních akčních potenciálů". Síť: Výpočet v neuronových systémech. 9 (4): 53–78. doi:10.1088 / 0954-898X_9_4_001. S2CID 10290908.
- ^ Barlett, MS (2001). Analýza obrazu obličeje bez dozoru. Boston: Kluwer International Series on Engineering and Computer Science.
- ^ Bell, AJ; Sejnowski, TJ (1997). „Nezávislou součástí přirozených scén jsou hranové filtry.“. Vision Vision. 37 (23): 3327–3338. doi:10.1016 / s0042-6989 (97) 00121-1. PMC 2882863. PMID 9425547.
- ^ Zpět, AD; Weigend, AS (1997). "První aplikace nezávislé analýzy komponent na extrakci struktury z výnosů akcií". International Journal of Neural Systems. 8 (4): 473–484. doi:10,1142 / s0129065797000458. PMID 9730022. S2CID 872703.
- ^ Hyvarinen, A, Karhunen, J & Oja, E (2001a). Analýza nezávislých komponent. New York: John Wiley and Sons.
- ^ Polder, G; van der Heijen, FWAM (2003). Msgstr "Odhad distribuce sloučenin ve spektrálních obrazech rajčat pomocí analýzy nezávislých složek". Rakouská počítačová společnost: 57–64.
- ^ Delorme, A; Sejnowski, T; Makeig, S (2007). „Vylepšená detekce artefaktů v datech EEG pomocí statistik vyššího řádu a analýzy nezávislých komponent“. NeuroImage. 34 (4): 1443–1449. doi:10.1016 / j.neuroimage.2006.11.004. PMC 2895624. PMID 17188898.
- ^ Trapnell, C; Cacchiarelli, D; Grimsby, J (2014). „Dynamika a regulátory rozhodování o osudu buněk jsou odhaleny pseudotemporálním uspořádáním jednotlivých buněk“. Přírodní biotechnologie. 32 (4): 381–386. doi:10,1038 / nbt.2859. PMC 4122333. PMID 24658644.
- ^ Kiviniemi, Vesa J .; Kantola, Juha-Heikki; Jauhiainen, Jukka; Hyvärinen, Aapo; Tervonen, Osmo (2003). "Analýza nezávislých komponent nedeterministických zdrojů signálu fMRI". NeuroImage. 19 (2): 253–260. doi:10.1016 / S1053-8119 (03) 00097-1. PMID 12814576. S2CID 17110486.
Reference
- Comon, Pierre (1994): „Analýza nezávislých komponent: nový koncept?“, Zpracování signálu, 36 (3): 287–314 (Původní práce popisující koncept ICA)
- Hyvärinen, A .; Karhunen, J .; Oja, E. (2001): Analýza nezávislých komponent, New York: Wiley, ISBN 978-0-471-40540-5 ( Úvodní kapitola )
- Hyvärinen, A .; Oja, E. (2000): "Analýza nezávislých komponent: Algoritmy a aplikace", Neuronové sítě, 13 (4-5): 411-430. (Technický, ale pedagogický úvod).
- Comon, P .; Jutten C., (2010): Handbook of Blind Source Separation, Independent Component Analysis and Applications. Academic Press, Oxford UK. ISBN 978-0-12-374726-6
- Lee, T.-W. (1998): Analýza nezávislých komponent: Teorie a aplikace, Boston, Massachusetts: Kluwer Academic Publishers, ISBN 0-7923-8261-7
- Acharyya, Ranjan (2008): Nový přístup k separaci slepých zdrojů konvolutivních zdrojů - separace založená na vlnkách pomocí funkce smrštění ISBN 3-639-07797-0 ISBN 978-3639077971 (tato kniha se zaměřuje na učení bez supervize s Blind Source Separation)
externí odkazy
- Co je to analýza nezávislých komponent? autor: Aapo Hyvärinen
- Analýza nezávislých komponent: Výukový program autor: Aapo Hyvärinen
- Výukový program pro analýzu nezávislých komponent
- FastICA jako balíček pro Matlab, v jazyce R, C ++
- Panely nástrojů ICALAB pro Matlab, vyvinut na RIKEN
- Vysoce výkonná sada nástrojů pro analýzu signálu poskytuje C ++ implementace FastICA a Infomax
- Sada nástrojů ICA Nástroje Matlab pro ICA s Bell-Sejnowski, Molgedey-Schuster a střední pole ICA. Vyvinuto na DTU.
- Demonstrace problému koktejlové párty
- Sada nástrojů EEGLAB ICA ze dne EEG pro Matlab, vyvinutý na UCSD.
- Panel nástrojů FMRLAB ICA ze dne fMRI pro Matlab, vyvinutý na UCSD
- MELODICKÝ, část Softwarová knihovna FMRIB.
- Diskuse o ICA použité v kontextu biomedicínské reprezentace tvaru
- Algoritmus FastICA, CuBICA, JADE a TDSEP pro Python a další ...
- Skupinový ICA Toolbox a Fusion ICA Toolbox
- Výukový program: Používání ICA k čištění signálů EEG