Nelineární redukce rozměrů - Nonlinear dimensionality reduction
Vysoce dimenzionální data, tj. data, která k reprezentaci vyžadují více než dvě nebo tři dimenze, mohou být obtížně interpretovatelný. Jedním z přístupů ke zjednodušení je předpokládat, že zájmová data leží na vložený nelineární potrubí v rámci prostor vyšší dimenze. Pokud je potrubí dostatečně nízké dimenze, lze data vizualizovat v nízkodimenzionálním prostoru.
Níže je uveden přehled některých důležitých algoritmů z historie rozmanité učení a nelineární redukce rozměrů (NLDR).[1][2] Mnoho z těchto nelineárních snížení rozměrů metody se vztahují k lineární metody uvedené níže. Nelineární metody lze široce rozdělit do dvou skupin: ty, které poskytují mapování (buď z vysoko-dimenzionálního prostoru do nízkodimenzionálního vkládání nebo naopak), a ty, které pouze poskytují vizualizaci. V kontextu strojové učení, lze mapovací metody považovat za předběžné extrakce funkcí krok, po kterém algoritmy rozpoznávání vzorů jsou použity. Ty, které pouze poskytují vizualizaci, jsou obvykle založeny na datech blízkosti - to znamená, vzdálenost Měření.
Související metody lineárního rozkladu
- Analýza nezávislých komponent (ICA).
- Analýza hlavních komponent (PCA) (nazývané také Karhunen – Loèveova věta - KLT).
- Rozklad singulární hodnoty (SVD).
- Faktorová analýza.
Aplikace NLDR
Zvažte datovou sadu představovanou jako matici (nebo databázovou tabulku), takže každý řádek představuje sadu atributů (nebo funkcí nebo dimenzí), které popisují konkrétní instanci něčeho. Pokud je počet atributů velký, pak je prostor jedinečných možných řádků exponenciálně velký. Čím větší je rozměrnost, tím obtížnější je vzorkování prostoru. To způsobuje mnoho problémů. Algoritmy, které pracují s vysokodimenzionálními daty, mají obvykle velmi vysokou časovou složitost. Mnoho algoritmů strojového učení například bojuje s vysokodimenzionálními daty. Toto se stalo známé jako kletba dimenzionality. Redukce dat na méně dimenzí často zefektivňuje analytické algoritmy a může pomoci algoritmům strojového učení vytvářet přesnější předpovědi.
Lidé mají často potíže s porozuměním dat v mnoha dimenzích. Redukce dat na malý počet dimenzí je tedy užitečná pro účely vizualizace.
Redukční dimenze reprezentace dat jsou často označovány jako „vnitřní proměnné“. Tento popis naznačuje, že se jedná o hodnoty, ze kterých byla data vytvořena. Zvažte například datovou sadu, která obsahuje obrázky písmene „A“, které bylo zmenšeno a otočeno o různé množství. Každý obrázek má 32x32 pixelů. Každý obrázek lze reprezentovat jako vektor s hodnotami 1024 pixelů. Každý řádek je vzorek na dvourozměrném potrubí v 1024-dimenzionálním prostoru (a Hammingův prostor ). Vnitřní dimenze jsou dvě, protože dvě proměnné (rotace a měřítko) se měnily, aby se vytvořila data. Informace o tvaru nebo vzhledu písmene „A“ nejsou součástí vnitřních proměnných, protože jsou v každém případě stejné. Nelineární redukce rozměrů zahodí korelované informace (písmeno „A“) a obnoví pouze různé informace (rotace a měřítko). Obrázek vpravo ukazuje ukázkové obrázky z této datové sady (pro úsporu místa nejsou zobrazeny všechny vstupní obrázky) a graf dvourozměrných bodů, který je výsledkem použití algoritmu NLDR (v tomto případě bylo použito sochařské tvarování) zredukovat data pouze na dvě dimenze.
Pro srovnání, pokud Analýza hlavních komponent, což je algoritmus redukce lineární dimenze, se používá ke zmenšení stejné datové sady na dvě dimenze, výsledné hodnoty nejsou tak dobře organizované. To ukazuje, že vysokodimenzionální vektory (každý představující písmeno „A“), které vzorkují toto potrubí, se liší nelineárním způsobem.
Mělo by tedy být zřejmé, že NLDR má několik aplikací v oblasti počítačového vidění. Zvažte například robota, který používá kameru k navigaci v uzavřeném statickém prostředí. Snímky získané touto kamerou lze považovat za vzorky na potrubí ve vysokodimenzionálním prostoru a vnitřní proměnné tohoto potrubí budou představovat polohu a orientaci robota. Tento nástroj se neomezuje pouze na roboty. Dynamické systémy, obecnější třída systémů, která zahrnuje roboty, jsou definovány z hlediska potrubí. Aktivní výzkum v NLDR se snaží rozvinout pozorovací potrubí spojená s dynamickými systémy, aby vyvinuly techniky pro modelování těchto systémů a umožnily jim autonomní provoz.[3]
Níže jsou uvedeny některé z nejvýznamnějších algoritmů pro učení se různým způsobem. Algoritmus se může naučit interní model dat, která lze použít k mapování bodů nedostupných v době tréninku do vkládání do procesu, který se často nazývá přípona mimo vzorek.
Důležité koncepty
Sammonovo mapování
Sammonovo mapování je jednou z prvních a nejpopulárnějších technik NLDR.
Samoorganizující se mapa
The samoorganizující se mapa (SOM, také volal Mapa Kohonen) a jeho pravděpodobnostní varianta generativní topografické mapování (GTM) pomocí bodové reprezentace ve vloženém prostoru vytvoří a latentní variabilní model na základě nelineárního mapování z vloženého prostoru do prostoru s vysokou dimenzí.[5] Tyto techniky souvisí s prací na hustotní sítě, které také vycházejí ze stejného pravděpodobnostního modelu.
Analýza hlavních komponent jádra
Snad nejpoužívanějším algoritmem pro mnohočetné učení je jádro PCA.[6] Je to kombinace Analýza hlavních komponent a trik s jádrem. PCA začíná výpočtem kovarianční matice matice
Poté promítne data na první k vlastní vektory této matice. Pro srovnání, KPCA začíná výpočtem kovarianční matice dat poté, co byla transformována do prostoru vyšší dimenze,
Potom promítá transformovaná data na první k vlastní vektory této matice, stejně jako PCA. Využívá trik jádra k odečtení velké části výpočtu, takže celý proces lze provést bez skutečného výpočtu . Samozřejmě musí být vybráno tak, aby mělo známé odpovídající jádro. Naneštěstí není jednoduché najít dobré jádro pro daný problém, takže KPCA nepřináší dobré výsledky s některými problémy při použití standardních jader. Je například známo, že si s těmito jádry na serveru špatně vedou roláda potrubí. Lze však zobrazit některé další metody, které v takových nastaveních fungují dobře (např. Laplacian Eigenmaps, LLE), jako speciální případy jádra PCA vytvořením matice jádra závislé na datech.[7]
KPCA má interní model, takže jej lze použít k mapování bodů do jeho vložení, které nebyly k dispozici v době školení.
Hlavní křivky a potrubí
Hlavní křivky a potrubí dát přirozený geometrický rámec pro nelineární redukci rozměrů a rozšířit geometrickou interpretaci PCA explicitním vytvořením vloženého potrubí a kódováním pomocí standardní geometrické projekce na potrubí. Tento přístup navrhl Trevor Hastie ve své práci (1984)[11] a dále rozvíjeno mnoha autory.[12]Jak definovat „jednoduchost“ potrubí je závislé na problému, nicméně je běžně měřeno vnitřní rozměrností a / nebo plynulostí potrubí. Obvykle je hlavní potrubí definováno jako řešení optimalizačního problému. Objektivní funkce zahrnuje kvalitu aproximace dat a některé trestní podmínky pro ohýbání potrubí. Populární počáteční aproximace jsou generovány lineárním PCA, Kohonenovým SOM nebo automatickými kodéry. The elastická mapa metoda poskytuje algoritmus maximalizace očekávání pro jistinu rozmanité učení s minimalizací kvadratické energie funkční v kroku „maximalizace“.
Laplaciánské vlastní mapy
Laplaciánské vlastní mapy používají spektrální techniky k provedení redukce rozměrů.[13] Tato technika se spoléhá na základní předpoklad, že data leží v nízkodimenzionálním potrubí ve vysokodimenzionálním prostoru.[14] Tento algoritmus nemůže vložit body mimo vzorek, ale techniky založené na Reprodukce jádra Hilbertova prostoru pro přidání této schopnosti existuje regularizace.[15] Takové techniky lze aplikovat i na jiné nelineární algoritmy snižování rozměrů.
Tradiční techniky, jako je analýza hlavních komponent, nezohledňují vnitřní geometrii dat. Laplaciánské vlastní mapy vytvářejí graf z informací o sousedství datové sady. Každý datový bod slouží jako uzel v grafu a konektivita mezi uzly se řídí blízkostí sousedních bodů (např. Pomocí Algoritmus k-nejbližšího souseda ). Takto generovaný graf lze považovat za diskrétní aproximaci nízkodimenzionálního potrubí ve vysokodimenzionálním prostoru. Minimalizace nákladové funkce na základě grafu zajišťuje, že body blízko sebe na potrubí jsou mapovány blízko sebe v nízkodimenzionálním prostoru, přičemž se zachovávají místní vzdálenosti. Vlastní funkce Operátor Laplace – Beltrami na potrubí slouží jako vkládací rozměry, protože za mírných podmínek má tento operátor spočetné spektrum, které je základem pro čtvercové integrovatelné funkce na potrubí (ve srovnání s Fourierova řada na jednotkovém kruhovém potrubí). Pokusy umístit laplaciánské vlastní mapy na pevnou teoretickou základnu se setkaly s určitým úspěchem, protože za určitých neomezujících předpokladů bylo prokázáno, že graf laplaciánské matice konverguje k operátoru Laplace-Beltrami, protože počet bodů jde do nekonečna.[14]
V klasifikačních aplikacích lze k modelování tříd dat, které lze definovat ze sad pozorovaných instancí, použít potrubí s nízkou dimenzí. Každou pozorovanou instanci lze popsat dvěma nezávislými faktory, které se nazývají „obsah“ a „styl“, kde „obsah“ je invariantní faktor související s podstatou třídy a „styl“ vyjadřuje variace v této třídě mezi instancemi.[16] Laplaciánské vlastní mapy bohužel nemusí být schopny vytvořit koherentní zastoupení třídy zájmu, když tréninková data sestávají z instancí, které se výrazně liší z hlediska stylu.[17] V případě tříd, které jsou reprezentovány vícerozměrnými sekvencemi, bylo navrženo strukturní laplaciánské vlastní mapy, aby se tento problém překonal přidáním dalších omezení do informačního grafu sousedství Laplacianských vlastních map, aby lépe odrážely vnitřní strukturu třídy.[18] Přesněji řečeno, graf se používá ke kódování jak sekvenční struktury vícerozměrných sekvencí, tak, aby se minimalizovaly stylistické variace, blízkost mezi datovými body různých sekvencí nebo dokonce uvnitř sekvence, pokud obsahuje opakování. Použitím dynamické časové deformace, blízkost je detekována nalezením korespondence mezi sekcemi vícerozměrných sekvencí a v jejich rámci, které vykazují vysokou podobnost. Experimenty prováděné dne rozpoznávání činnosti na základě vidění, klasifikace objektové orientace a aplikace pro obnovu 3D lidské pozice prokázaly přidanou hodnotu strukturálních laplaciánských vlastních map při práci s vícerozměrnými sekvenčními daty.[18] Rozšíření strukturních laplaciánských vlastních map, generalizovaných laplaciánských vlastních map, vedlo ke generování potrubí, kde jedna z dimenzí konkrétně představuje variace ve stylu. To se ukázalo zvláště cenné v aplikacích, jako je sledování lidského kloubového těla a extrakce siluety.[19]
Isomap
Isomap[20] je kombinací Floyd-Warshallův algoritmus s klasikou Vícerozměrné škálování. Classic Multidimensional Scaling (MDS) trvá matici párových vzdáleností mezi všemi body a vypočítává polohu pro každý bod. Isomap předpokládá, že párové vzdálenosti jsou známé pouze mezi sousedními body, a k výpočtu párových vzdáleností mezi všemi ostatními body používá algoritmus Floyd – Warshall. To efektivně odhaduje úplnou matici párově geodetické vzdálenosti mezi všemi body. Isomap pak používá klasický MDS k výpočtu zmenšených pozic všech bodů. Landmark-Isomap je varianta tohoto algoritmu, který používá orientační body ke zvýšení rychlosti za cenu určité přesnosti.
V učení potrubí se předpokládá, že vstupní data jsou vzorkována z nízkodimenzionálního potrubí který je vložen do výškového vektorového prostoru. Hlavní intuicí za MVU je využití lokální linearity potrubí a vytvoření mapování, které zachovává místní sousedství v každém bodě podkladového potrubí.
Lokálně lineární vkládání
Lokálně lineární vkládání (LLE)[21] byl představen přibližně ve stejnou dobu jako Isomap. To má několik výhod oproti Isomap, včetně rychlejší optimalizace při implementaci využít řídká matice algoritmy a lepší výsledky s mnoha problémy. LLE také začíná hledáním sady nejbližších sousedů každého bodu. Potom vypočítá sadu vah pro každý bod, který nejlépe popisuje bod jako lineární kombinaci jeho sousedů. Nakonec používá optimalizační techniku založenou na vlastních vektorech k nalezení nízkodimenzionálního vkládání bodů, takže každý bod je stále popsán se stejnou lineární kombinací jeho sousedů. LLE má tendenci špatně zacházet s nerovnoměrnými hustotami vzorků, protože neexistuje pevná jednotka, která by bránila driftování vah, protože různé oblasti se liší v hustotách vzorků. LLE nemá žádný interní model.
LLE vypočítá barycentrické souřadnice bodu Xi na základě svých sousedů Xj. Původní bod je rekonstruován lineární kombinací danou maticí hmotnosti Žij, jejích sousedů. Chyba rekonstrukce je dána funkcí nákladů E(Ž).
Váhy Žij odkazují na výši příspěvku bod Xj při rekonstrukci bodu Xi. Funkce nákladů je minimalizována za dvou omezení: (a) Každý datový bod Xi je rekonstruován pouze od svých sousedů, čímž se prosazuje Žij být nula, pokud bod Xj není sousedem bodu Xi a (b) Součet každého řádku váhové matice se rovná 1.
Původní datové body se shromažďují v a D dimenzionální prostor a cílem algoritmu je snížit dimenzionálnost na d takhle D >> d. Stejné váhy Žij který rekonstruuje ith datový bod v D dimenzionální prostor bude použit k rekonstrukci stejného bodu ve spodní části d dimenzionální prostor. Na základě této myšlenky je vytvořena mapa pro zachování sousedství. Každý bod Xi v D dimenzionální prostor je mapován na bod Yi v d dimenzionální prostor minimalizací nákladové funkce
V této nákladové funkci, na rozdíl od předchozí, váhy Wij jsou udržovány pevné a minimalizace se provádí v bodech Yi optimalizovat souřadnice. Tento problém s minimalizací lze vyřešit řešením řídkého N X N problém vlastní hodnoty (N počet datových bodů), jejichž spodní část d nenulové vlastní vektory poskytují ortogonální sadu souřadnic. Obecně jsou datové body rekonstruovány z K. nejbližší sousedé, měřeno Euklidovská vzdálenost. Pro takovou implementaci má algoritmus pouze jeden volný parametr K, které lze zvolit křížovou validací.
Hessianské lokálně lineární vkládání (Hessian LLE)
Jako LLE, Hessian LLE je také založen na technikách řídké matice.[22] Má tendenci poskytovat výsledky mnohem vyšší kvality než LLE. Bohužel má velmi nákladnou výpočetní složitost, takže není vhodný pro silně vzorkované potrubí. Nemá žádný interní model.
Modifikované lokálně lineární vkládání (MLLE)
Modifikovaná LLE (MLLE)[23] je další varianta LLE, která používá více závaží v každém sousedství k řešení problému úpravy místní matice hmotnosti, což vede ke zkreslení v mapách LLE. Volně řečeno, několik závaží je místní ortogonální projekce původních závaží vyrobených společností LLE. Tvůrci této legalizované varianty jsou také autory Local Tangent Space Alignment (LTSA), což je implicitní ve formulaci MLLE, když si uvědomíme, že globální optimalizace ortogonálních projekcí každého váhového vektoru v podstatě srovnává lokální tangentní prostory každého datového bodu. Teoretické a empirické důsledky správné aplikace tohoto algoritmu jsou dalekosáhlé.[24]
Zarovnání místního tečného prostoru
LTSA[25] je založen na intuici, že když je potrubí správně rozloženo, všechny tečné hyperplany k potrubí budou zarovnány. Začíná to výpočtem k- nejbližší sousedé každého bodu. Vypočítává tečný prostor v každém bodě výpočtem d-prvé hlavní komponenty v každém místním sousedství. Poté se optimalizuje, aby se našlo vložení, které zarovná tečné prostory.
Maximální rozptyl se odvíjí
Maximální rozptyl rozložení „Isomap a Locally Linear Embedding sdílejí společnou intuici spoléhající se na představu, že pokud je rozdělovač správně rozložen, pak je maximalizována odchylka mezi body. Jeho počátečním krokem, jako je Isomap a Locally Linear Embedding, je nalezení k- nejbližší sousedé každého bodu. Poté se snaží vyřešit problém maximalizace vzdálenosti mezi všemi nesousedícími body, omezený tak, aby byly zachovány vzdálenosti mezi sousedními body. Primárním přínosem tohoto algoritmu je technika obsazení tohoto problému jako semidefinitního programovacího problému. Řešitelé semidefinitního programování mají bohužel vysoké výpočetní náklady. Stejně jako lokálně lineární vkládání nemá žádný interní model.
Autoencoders
An autoencoder je zpětná vazba nervová síť který je vyškolen k aproximaci funkce identity. To znamená, že je trénováno pro mapování z vektoru hodnot na stejný vektor. Při použití pro účely redukce rozměrů je jedna ze skrytých vrstev v síti omezena tak, aby obsahovala pouze malý počet síťových jednotek. Síť se tedy musí naučit kódovat vektor do malého počtu rozměrů a poté jej dekódovat zpět do původního prostoru. První polovina sítě je tedy modelem, který mapuje z vysokého do nízkodimenzionálního prostoru, a druhá polovina mapuje z nízko-dimenzionálního prostoru. I když je myšlenka autoencoderů docela stará, trénink hlubokých autoencoderů je možný teprve nedávno omezené Boltzmannovy stroje a naskládané odšumovací automatické kodéry. Souvisí s autoencoders je NeuroScale algoritmus, který využívá stresové funkce inspirované vícerozměrné škálování a Sammon mapování (viz výše), abyste se naučili nelineární mapování z trojrozměrného do vloženého prostoru. Mapování v NeuroScale jsou založena na radiální základní funkční sítě. Další využití neuronové sítě pro redukci rozměrů spočívá v tom, aby se naučila tečné roviny v datech.[26]
Latentní variabilní modely Gaussova procesu
Latentní variabilní modely Gaussova procesu (GPLVM)[27] jsou pravděpodobnostní metody redukce rozměrů, které používají Gaussovy procesy (GP) k nalezení nízkodimenzionálního nelineárního vkládání vysoce dimenzionálních dat. Jsou rozšířením pravděpodobnostní formulace PCA. Model je definován pravděpodobnostně a latentní proměnné jsou poté marginalizovány a parametry jsou získány maximalizací pravděpodobnosti. Stejně jako jádro PCA používají funkci jádra k vytvoření nelineárního mapování (ve formě a Gaussův proces ). V GPLVM je však mapování z vloženého (latentního) prostoru do datového prostoru (jako hustotní sítě a GTM), zatímco u jádra PCA je to v opačném směru. Původně byl navržen pro vizualizaci vysoce dimenzionálních dat, ale byl rozšířen o konstrukci sdíleného modelu potrubí mezi dvěma pozorovacími prostory. GPLVM a jeho mnoho variant byly navrženy speciálně pro modelování lidského pohybu, např. Zpětně omezený GPLVM, dynamický model GP (GPDM ), vyvážený GPDM (B-GPDM) a topologicky omezený GPDM. Aby se v analýze chůze zachytil vazebný účinek rozdělovačů pózu a chůze, bylo navrženo vícevrstvé společné rozdělovače chůze a pózy.[28]
t-distribuované stochastické vkládání sousedů
t-distribuované stochastické vkládání sousedů (t-SNE)[29] je široce používán. Je to jedna z rodiny stochastických metod vkládání sousedů. Algoritmus vypočítá pravděpodobnost, že páry datových bodů ve vysokodimenzionálním prostoru souvisejí, a poté zvolí nízkodimenzionální vložení, která vytvoří podobnou distribuci.
Další algoritmy
Relační perspektivní mapa
Relační perspektivní mapa je a vícerozměrné škálování algoritmus. Algoritmus najde konfiguraci datových bodů na potrubí simulací vícečásticového dynamického systému na uzavřeném potrubí, kde jsou datové body mapovány na částice a vzdálenosti (nebo odlišnost) mezi datovými body představují odpudivou sílu. Jak se rozdělovač postupně zvětšuje, multi-částicový systém se postupně ochlazuje a konverguje do konfigurace, která odráží informace o vzdálenosti datových bodů.
Mapa relační perspektivy byla inspirována fyzickým modelem, ve kterém se kladně nabité částice volně pohybují po povrchu koule. Vedeni Coulomb platnost mezi částicemi bude minimální energetická konfigurace částic odrážet sílu odpudivých sil mezi částicemi.
Mapa relační perspektivy byla představena v roce.[30]Algoritmus nejprve použil byt torus jako rozdělovač obrazu, byl rozšířen (v softwaru VisuMap používat jiné typy uzavřených potrubí, například koule, projektivní prostor, a Kleinova láhev, jako obrazové potrubí.
Nákazové mapy
Mapy nákazy používají více nákaz v síti k mapování uzlů jako mračno bodů.[31] V případě Model globálních kaskád rychlost rozmetání lze upravit parametrem prahu . Pro nákazová mapa je ekvivalentní s Isomap algoritmus.
Křivočará analýza složek
Křivočará analýza složek (CCA) hledá konfiguraci bodů ve výstupním prostoru, která co nejvíce zachovává původní vzdálenosti, přičemž se zaměřuje na malé vzdálenosti ve výstupním prostoru (naopak Sammonovo mapování které se zaměřují na malé vzdálenosti v původním prostoru).[32]
Je třeba si všimnout, že CCA jako iterativní algoritmus učení ve skutečnosti začíná zaměřením na velké vzdálenosti (jako je Sammonův algoritmus), poté postupně mění zaměření na malé vzdálenosti. Informace o malé vzdálenosti přepíší informace o velké vzdálenosti, pokud je třeba provést kompromisy mezi nimi.
Stresová funkce CCA souvisí se součtem správných Bregmanových divergencí.[33]
Křivočará analýza vzdálenosti
CDA[32] trénuje samoorganizující se neuronovou síť, aby se vešla do potrubí a snaží se ji zachovat geodetické vzdálenosti v jeho vložení. Je založen na Curvilinear Component Analysis (která rozšířila Sammonovo mapování), ale místo toho používá geodetické vzdálenosti.
Snížení difomorfní dimenze
Difeomorfní Snížení rozměrů nebo Diffeomap[34] se učí plynulé diffeomorfní mapování, které přenáší data na lineární podprostor nižší dimenze. Metody řeší plynulé časově indexované vektorové pole tak, aby toky podél pole, které začínají v datových bodech, skončily v lineárním podprostoru nižší dimenze, čímž se pokusí zachovat párové rozdíly jak v dopředném, tak i v inverzním mapování.
Zarovnání potrubí
Zarovnání potrubí využívá předpoklad, že různorodé datové sady vytvořené podobnými generujícími procesy budou sdílet podobnou podkladovou rozmanitou reprezentaci. Naučením projekcí z každého původního prostoru do sdíleného potrubí se získávají korespondence a znalosti z jedné domény lze přenést do jiné. Většina technik uspořádání potrubí zohledňuje pouze dvě datové sady, ale koncept se rozšiřuje na libovolně mnoho počátečních datových sad.[35]
Difúzní mapy
Difúzní mapy využívá vztah mezi teplem difúze a a náhodná procházka (Markovův řetězec ); analogie je nakreslena mezi operátorem difúze na potrubí a Markovovou přechodovou maticí fungující na funkcích definovaných v grafu, jehož uzly byly vzorkovány z potrubí.[36] Zejména nechte datovou sadu reprezentovat . Základním předpokladem difuzní mapy je, že vysoce dimenzionální data leží na nízkodimenzionálním potrubí dimenze . Nechat X představují soubor dat a představují distribuci datových bodů na X. Dále definujte a jádro což představuje určitou představu o afinitě bodů v X. Jádro má následující vlastnosti[37]
k je symetrický
k je zachování pozitivity
Lze si tedy představit jednotlivé datové body jako uzly grafu a jádra k jako definování jakési afinity v tomto grafu. Graf je konstrukčně symetrický, protože jádro je symetrické. Je snadné vidět, že z n-tice (X,k) lze vytvořit reverzibilní Markovův řetězec. Tato technika je společná pro řadu oborů a je známá jako graf Laplacian.
Například graf K. = (X,E) lze zkonstruovat pomocí Gaussova jádra.