Kosinová podobnost - Cosine similarity
Kosinová podobnost je míra podobnosti mezi dvěma nenulovými vektory an vnitřní produktový prostor. Je definován tak, aby se rovnal kosinus úhlu mezi nimi, který je také stejný jako vnitřní produkt stejných vektorů normalizováno oba mají délku 1. Kosinus 0 ° je 1 a pro jakýkoli úhel v intervalu je menší než 1 (0, π] radiány. Jde tedy o úsudek o orientaci a ne o velikost: dva vektory se stejnou orientací mají kosinovou podobnost 1, dva vektory orientované 90 ° vzájemně vůči sobě mají podobnost 0 a dva diametrálně odlišné vektory mají podobnost - 1, nezávisle na jejich velikosti. Kosinová podobnost se používá zejména v pozitivním prostoru, kde je výsledek úhledně ohraničen . Název je odvozen od výrazu „kosinový směr“: v tomto případě jednotkové vektory jsou maximálně „podobné“, pokud jsou paralelní, a maximálně „odlišné“, pokud jsou ortogonální (kolmý). To je analogické s kosinem, což je jednota (maximální hodnota), když segmenty mají nulový úhel a nula (nekorelující), když jsou segmenty kolmé.
Tyto hranice platí pro libovolný počet dimenzí a kosinová podobnost se nejčastěji používá v pozitivních prostorech vysokých rozměrů. Například v vyhledávání informací a dolování textu, každému výrazu je teoreticky přiřazena jiná dimenze a dokument je charakterizován vektorem, kde hodnota v každé dimenzi odpovídá počtu, kolikrát se výraz v dokumentu objeví. Kosinová podobnost pak poskytuje užitečné měřítko toho, jak podobné dva dokumenty budou pravděpodobně z hlediska jejich předmětu.[1]
Tato technika se také používá k měření soudržnosti v klastrech v oblasti dolování dat.[2]
Termín kosinová vzdálenost se často používá pro doplněk v pozitivním prostoru, to znamená: kde je kosinová vzdálenost a je kosinová podobnost. Je však důležité si uvědomit, že to není správné vzdálenost metrická protože nemá nerovnost trojúhelníku majetek - nebo, formálněji, Schwarzova nerovnost —A porušuje axiom shody okolností; k opravě vlastnosti nerovnosti trojúhelníku při zachování stejného pořadí je nutné převést na úhlovou vzdálenost (viz níže).
Jednou výhodou kosinové podobnosti je její nízká složitost, zejména pro řídké vektory: je třeba brát v úvahu pouze nenulové rozměry.
Jiná jména kosinové podobnosti jsou Orchini podobnost a Tucker koeficient shody; Ochiai podobnost (viz níže) je kosinová podobnost aplikovaná na binární data.
Definice
Kosinus dvou nenulových vektorů lze odvodit pomocí Euklidovský tečkovaný produkt vzorec:
Vzhledem k tomu dva vektory atributů, A a Bkosinová podobnost, cos (θ), je znázorněno pomocí a Tečkovaný produkt a velikost tak jako
kde a jsou komponenty vektoru a resp.
Výsledná podobnost se pohybuje od −1, což znamená přesně opačný, do 1, což znamená přesně to samé, přičemž 0 označuje ortogonalita nebo dekorelace, zatímco mezilehlé hodnoty označují střední podobnost nebo odlišnost.
Pro shoda textu, vektory atributů A a B jsou obvykle četnost termínů vektory dokumentů. Podobnost kosinu lze chápat jako metodu normalizace délka dokumentu během srovnání.
V případě vyhledávání informací, kosinová podobnost dvou dokumentů se bude pohybovat od 0 do 1, protože termín frekvence (použití tf – idf váhy) nemohou být záporné. Úhel mezi dvěma členy kmitočtových vektorů nemůže být větší než 90 °.
Pokud jsou vektory atributů normalizovány odečtením vektorových průměrů (např. ), míra se nazývá středová kosinová podobnost a je ekvivalentní s Pearsonův korelační koeficient. Jako příklad centrování
Úhlová vzdálenost a podobnost
Termín „kosinová podobnost“ se někdy používá k označení jiné definice podobnosti uvedené níže. Nejběžnější použití „kosinové podobnosti“ je však definováno výše a metriky podobnosti a vzdálenosti definované níže jsou označovány jako „úhlová podobnost“ a „úhlová vzdálenost“. Normalizovaný úhel mezi vektory je formální vzdálenost metrická a lze ji vypočítat z výše uvedeného skóre podobnosti.[3] Tuto metriku úhlové vzdálenosti lze poté použít k výpočtu funkce podobnosti ohraničené mezi 0 a 1 včetně.
Když mohou být vektorové prvky pozitivní nebo negativní:
Nebo pokud jsou vektorové prvky vždy pozitivní:
Ačkoli pro tuto úhlovou vzdálenost byl použit termín „kosinová podobnost“, používá se jako kosinus úhlu pouze jako vhodný mechanismus pro výpočet úhlu samotného a není součástí významu. Výhodou koeficientu úhlové podobnosti je, že při použití jako rozdílového koeficientu (odečtením od 1) je výsledná funkce vlastní vzdálenost metrická, což neplatí pro první význam. Pro většinu použití to však není důležitá vlastnost. Pro každé použití, kde je důležité pouze relativní uspořádání podobnosti nebo vzdálenosti v sadě vektorů, je potom použitá funkce nepodstatná, protože výsledné pořadí nebude ovlivněno volbou.
Otsuka-Ochiai koeficient
V biologii existuje podobný koncept známý jako Otsuka-Ochiaiho koeficient pojmenovaný po něm Yanosuke Otsuka (také hláskováno jako Ōtsuka, Ootsuka nebo Otuka,[4] japonský: 大 塚 弥 之 助)[5] a Akira Ochiai (japonský: 落 合 明),[6] také známý jako Ochiai-Barkman[7] nebo Ochiaiho koeficient,[8] které lze reprezentovat jako:
Tady, a jsou sady, a je počet prvků v . Pokud jsou množiny reprezentovány jako bitové vektory, lze vidět, že Otsuka-Ochiaiův koeficient je stejný jako kosinová podobnost.
V nedávné knize[9] koeficient je nesprávně přiřazen jinému japonskému výzkumníkovi s příjmením Otsuka. Zmatek nastává, protože v roce 1957 Akira Ochiai přisuzuje koeficient pouze Otsuce (jméno není uvedeno)[6] citováním článku Ikusa Hamai (japonský: 浜 井 生 三),[10] který zase cituje původní článek Yanosuke Otsuka z roku 1936.[5]
Vlastnosti
Kosinová podobnost souvisí Euklidovská vzdálenost jak následuje. Označte euklidovskou vzdálenost obvyklým způsobem a dodržujte to
podle rozšíření. Když A a B jsou normalizovány na délku jednotky, takže tento výraz se rovná
Euklidovská vzdálenost se nazývá vzdálenost akordů (protože se jedná o délku akordu na jednotkové kružnici) a jedná se o euklidovskou vzdálenost mezi vektory, které byly normalizovány na jednotkový součet čtvercových hodnot v nich.
Nulová distribuce: U dat, která mohou být záporná i kladná, se použije hodnota nulová distribuce pro kosinovou podobnost je distribuce Tečkovaný produkt dvou nezávislých náhodných jednotkové vektory. Tato distribuce má a znamenat nula a a rozptyl z (kde je počet rozměrů), ai když je distribuce ohraničena mezi -1 a +1, jako roste do velké míry je distribuce čím dál tím lépe aproximována normální distribuce.[11][12] Jiné typy dat, jako např bitové proudy, které mají pouze hodnoty 0 nebo 1, má nulová distribuce jinou formu a může mít nenulovou střední hodnotu.[13]
Mírný kosinový rozměr
Měkký kosinus nebo („měkká“ podobnost) mezi dvěma vektory bere v úvahu podobnosti mezi dvojicemi prvků.[14] Tradiční kosinová podobnost bere v úvahu vektorový vesmírný model Funkce (VSM) jsou nezávislé nebo zcela odlišné, zatímco opatření měkkého kosinu navrhuje zvážit podobnost funkcí ve VSM, které pomáhají zobecnit koncept kosinu (a měkkého kosinu) i myšlenku (měkké) podobnosti.
Například v oblasti zpracování přirozeného jazyka (NLP) je podobnost mezi funkcemi docela intuitivní. Funkce jako slova, n-gramy nebo syntaktické n-gramy[15] mohou být docela podobné, i když formálně jsou ve VSM považovány za různé funkce. Například slova „hrát“ a „hra“ jsou různá slova, a proto jsou mapována do různých bodů VSM; přesto jsou sémanticky příbuzné. V případě n-gramy nebo syntaktické n-gramy, Levenshteinova vzdálenost lze použít (ve skutečnosti lze Levenshteinovu vzdálenost použít i na slova).
Pro výpočet měkkého kosinu, matice s se používá k označení podobnosti mezi funkcemi. To lze vypočítat z Levenshteinovy vzdálenosti, WordNet podobnost nebo jiné opatření podobnosti. Pak tuto matici pouze vynásobíme.
Vzhledem k tomu dva N-dimenzionální vektory a , podobnost měkkého kosinu se vypočítá takto:
kde sij = podobnost (funkcei, Vlastnostij).
Pokud neexistuje podobnost mezi funkcemi (sii = 1, sij = 0 pro i ≠ j), daná rovnice je ekvivalentní konvenčnímu kosinusovému podobnému vzorci.
The časová složitost tohoto opatření je kvadratické, díky čemuž je použitelné pro úkoly v reálném světě. Všimněte si, že složitost lze snížit na subkvadratickou.[16]
Viz také
Reference
- ^ Singhal, Amit (2001). "Modern Information Retrieval: A Stručný přehled ". Bulletin IEEE Computer Society Technical Committee on Data Engineering 24 (4): 35–43.
- ^ P.-N. Tan, M. Steinbach a V. Kumar, Úvod do dolování dat, Addison-Wesley (2005), ISBN 0-321-32136-7, kapitola 8; strana 500.
- ^ „VZDÁLENOST KOSINY, PODOBNOST KOSINY, ÚHLOVÁ VZDÁLENOST KOSINU, ÚHLOVÁ PODOBA KOZINY“. www.itl.nist.gov. Citováno 2020-07-11.
- ^ Omori, Masae (2004). „Geologická myšlenka Yanosuke Otuky, který vybudoval základ neotektoniky (geolog)“. Věda o Zemi. 58 (4): 256–259. doi:10.15080 / agcjchikyukagaku.58.4_256.
- ^ A b Otsuka, Yanosuke (1936). „Faunský charakter japonské pleistocénní mořské měkkýši, jako důkaz ochlazení podnebí během pleistocénu v Japonsku“. Bulletin of the Biogeographical Society of Japan. 6 (16): 165–170.
- ^ A b Ochiai, Akira (1957). „Zoogeografické studie o jedincích ryb nalezených v Japonsku a jeho sousedních oblastech - II.“. Bulletin Japonské společnosti pro vědecký rybolov. 22 (9): 526–530. doi:10.2331 / suisan.22.526.
- ^ Barkman, Jan J. (1958). Fytosociologie a ekologie kryptogamických epifytů: včetně taxonomického průzkumu a popisu jejich vegetačních jednotek v Evropě. Assen: Van Gorcum.
- ^ H. Charles Romesburg (1984). Klastrová analýza pro výzkumné pracovníky. Belmont, Kalifornie: Publikace o celoživotním učení. p. 149.
- ^ Howarth, Richard J. (2017). Slovník matematických geověd: S historickými poznámkami. Cham, Švýcarsko: Springer. p. 421. doi:10.1007/978-3-319-57315-1. ISBN 978-3-319-57314-4.
- ^ Hamai, Ikuso (1955). „Stratifikace komunity pomocí„ koeficientu komunity “(pokračování)“. Japonský žurnál ekologie. 5 (1): 41–45. doi:10.18960 / seitai.5.1_41.
- ^ Spruill, Marcus C. (2007). "Asymptotické rozložení souřadnic na sférách vysokých rozměrů". Pravděpodobnost elektronických komunikací. 12: 234–247. doi:10.1214 / ECP.v12-1294.
- ^ "Distribuce produktů bodů mezi dvěma náhodnými jednotkovými vektory v RD". CrossValidated.
- ^ Graham L. Giller (2012). "Statistické vlastnosti náhodných bitových toků a rozdělení vzorkování kosinové podobnosti". Poznámky k výzkumu Giller Investments (20121024/1). doi:10,2139 / ssrn.2167044.
- ^ Sidorov, Grigori; Gelbukh, Alexander; Gómez-Adorno, Helena; Pinto, David (29. září 2014). „Soft Softity and Soft Cosine Measure: Similarity of Features in Vector Space Model“. Computación y Sistemas. 18 (3): 491–504. doi:10.13053 / CyS-18-3-2043. Citováno 7. října 2014.
- ^ Sidorov, Grigori; Velasquez, Francisco; Stamatatos, Efstathios; Gelbukh, Alexander; Chanona-Hernández, Liliana (2013). Pokroky ve výpočetní inteligenci. Přednášky z informatiky. 7630. LNAI 7630. s. 1–11. doi:10.1007/978-3-642-37798-3_1. ISBN 978-3-642-37798-3.
- ^ Novotný, Vít (2018). Poznámky k implementaci opatření Soft Cosine. 27. mezinárodní konference ACM o řízení informací a znalostí. Torun, Itálie: Sdružení pro výpočetní techniku. 1639–1642. arXiv:1808.09407. doi:10.1145/3269206.3269317. ISBN 978-1-4503-6014-2.