Informace o interakci - Interaction information
The informace o interakci (McGill 1954), nebo množství informací (Hu Kuo Ting, 1962) nebo společné informace (Bell 2003), je jednou z několika zobecnění vzájemné informace.
Informace o interakci vyjadřují informace o množství (redundanci nebo synergii) vázané v sadě proměnných, mimo to, co je přítomné v jakékoli podmnožině těchto proměnných. Na rozdíl od vzájemné informace mohou být informace o interakci buď pozitivní, nebo negativní. Tato matoucí vlastnost pravděpodobně zpomalila její širší přijetí jako informační opatření v roce strojové učení a kognitivní věda. Tyto funkce, jejich negativita a minima mají přímou interpretaci algebraická topologie (Baudot & Bennequin, 2015).
Případ tří proměnných
Pro tři proměnné , informace o interakci darováno
kde například je vzájemná informace mezi proměnnými a , a je podmíněné vzájemné informace mezi proměnnými a daný . Formálně,
a
Z toho tedy vyplývá
V případě tří proměnných informace o interakci je rozdíl mezi informacemi sdílenými když byl opraven a kdy nebyl opraven. (Viz také Fanovu učebnici z roku 1961.) Informace o interakci měří vliv proměnné o množství informací sdílených mezi . Protože termín může být větší než - například když oba a mít společný účinek na ale jsou na sobě nezávislí, aniž by o tom věděli , informace o interakci mohou být negativní i pozitivní. Pozitivní informace o interakci označuje tuto proměnnou inhibuje (tj. účty pro nebo vysvětluje některé z) korelace mezi , zatímco negativní informace o interakci označuje tuto proměnnou usnadňuje nebo zvyšuje korelaci mezi .
Informace o interakci jsou omezené. Ve třech proměnných případech je ohraničen (Yeung 91)
Příklad informací o pozitivní interakci
Informace o pozitivní interakci se jeví mnohem přirozenější než informace o negativní interakci v tom smyslu, že takové vysvětlující účinky jsou typické pro struktury běžné příčiny. Například mraky způsobují déšť a také blokují slunce; proto je korelace mezi deštěm a tmou částečně způsobena přítomností mraků, . Výsledkem jsou informace o pozitivní interakci .
Příklad informací o negativní interakci
Případ informací o negativní interakci se zdá být o něco méně přirozený. Prototypický příklad negativu má jako výstup brány XOR, ke které a jsou nezávislé náhodné vstupy. V tomto případě bude nula, ale bude pozitivní (1 bit ) od jednoho výstupu je známa hodnota na vstupu zcela určuje hodnotu na vstupu . Od té doby , výsledkem jsou negativní informace o interakci . Může se zdát, že tento příklad se opírá o zvláštní uspořádání získat negativní interakci, ale symetrii definice pro označuje, že výsledky stejné negativní informace o interakci bez ohledu na to, kterou proměnnou považujeme za vetřelec nebo podmíněná proměnná. Například vstup a výstup jsou také nezávislé až do vstupu je pevná, kdy jsou zcela závislí (samozřejmě) a máme stejné negativní informace o interakci jako dříve, .
Tato situace je příkladem, kdy oprava společný efekt příčin a vyvolává závislost mezi příčinami, které dříve neexistovaly. Toto chování se hovorově označuje jako vysvětlovat pryč a je důkladně diskutována v Bayesian Network literatura (např. Pearl 1988). Příkladem Pearl je automatická diagnostika: Nastartování motoru automobilu může selhat kvůli vybité baterii nebo kvůli zablokovanému palivovému čerpadlu . Obvykle předpokládáme, že smrt baterie a zablokování palivového čerpadla jsou nezávislé události, kvůli zásadní modularitě takových automobilových systémů. Při absenci dalších informací nám tedy znalost toho, zda je baterie vybitá, neposkytuje žádné informace o tom, zda je či není blokováno palivové čerpadlo. Pokud však víme, že se auto nespustí (tj. Opravíme společný efekt ), tato informace vyvolává závislost mezi těmito dvěma příčinami smrt baterie a zablokování paliva. Pokud tedy při prohlídce zjistíte, že je baterie v dobrém zdravotním stavu, nelze nastartovat, můžeme dojít k závěru, že palivové čerpadlo musí být zablokováno.
Smrt baterie a zablokování paliva jsou tedy závislé, podmíněné společným účinkem startování auta. Výše uvedená diskuse naznačuje, že zjevná směrovost v grafu společných efektů popírá hlubokou informační symetrii: Pokud podmínění společného efektu zvýší závislost mezi jeho dvěma původními příčinami, podmínění jednou z příčin musí vytvořit stejné zvýšení závislosti. mezi druhou příčinou a společným následkem. V automobilovém příkladu Pearl, pokud je klimatizace zapnutá auto nastartuje indukuje bity závislosti mezi těmito dvěma příčinami vybitá baterie a palivo zablokováno, pak kondicionování zapnutopalivo zablokováno musí vyvolat bity závislosti mezi vybitá baterie a auto nastartuje. To se může zdát divné, protože vybitá baterie a auto nastartuje se již řídí implikací vybitá baterie auto nestartuje. Tyto proměnné však stále nejsou zcela korelované, protože obrácení není pravdivé. Podmínka na palivo zablokováno odstraňuje hlavní alternativní příčinu neúspěšného spuštění a posiluje konverzní vztah, a tedy i asociaci mezi vybitá baterie a auto nastartuje. Příspěvek Tsujishita (1995) se hlouběji zaměřuje na vzájemné informace třetího řádu.
Pozitivita pro Markovovy řetězce
Pokud tři proměnné tvoří Markovův řetězec , pak , ale . Proto jsme to dospěli k závěru
Čtyři proměnné případy
Lze rekurzivně definovat n-dimenzionální informace o interakci ve smyslu -dimenzionální informace o interakci. Například informace o čtyřrozměrné interakci lze definovat jako
nebo ekvivalentně
The n-variační případ
Je možné rozšířit všechny tyto výsledky na libovolný počet dimenzí. Obecný výraz pro informace o interakci na množině proměnných pokud jde o mezní entropie, uvádějí Hu Kuo Ting (1962), Jakulin & Bratko (2003).
což je střídavý součet (zahrnutí-vyloučení) u všech podmnožin , kde . Přestože se jedná o informační teoretický analog k Kirkwoodova aproximace.
Problémy s interpretací informací o interakci
Možná negativita informací o interakci může být zdrojem jistého zmatku (Bell 2003). Jako příklad tohoto zmatku zvažte sadu osmi nezávislých binárních proměnných . Aglomerujte tyto proměnné takto:
Protože překrývají se navzájem (jsou nadbytečné) na třech binárních proměnných , očekávali bychom informace o interakci rovnat se bitů, což dělá. Zvažte však nyní aglomerované proměnné
Jedná se o stejné proměnné jako dříve s přidáním . Nicméně, v tomto případě se vlastně rovná bit, což naznačuje menší redundanci. To je správné v tom smyslu, že
ale stále je obtížné jej interpretovat.
Použití
- Jakulin a Bratko (2003b) poskytují algoritmus strojového učení, který využívá informace o interakci.
- Killian, Kravitz a Gilson (2007) používají vzájemné rozšiřování informací k získání odhadů entropie z molekulárních simulací.
- LeVine a Weinstein (2014) používají informace o interakcích a další opatření pro informace o N-těle ke kvantifikaci alosterických vazeb v molekulárních simulacích.
- Moore a kol. (2006), Chanda P, Zhang A, Brazeau D, Sucheston L, Freudenheim JL, Ambrosone C, Ramanathan M. (2007) a Chanda P, Sucheston L, Zhang A, Brazeau D, Freudenheim JL, Ambrosone C, Ramanathan M. (2008) demonstrují použití informací o interakci pro analýzu interakcí gen-gen a gen-prostředí spojené s komplexními chorobami.
- Pandey a Sarkar (2017) používají informace o interakci v kosmologii ke studiu vlivu prostředí ve velkém měřítku na vlastnosti galaxií.
- K dispozici je balíček pythonu pro výpočet všech vícerozměrných interakcí nebo vzájemných informací, podmíněné vzájemné informace, společné entropie, celkové korelace, vzdálenost informací v datové sadě n proměnných.[1]
Reference
- ^ "InfoTopo: Analýza dat topologické informace. Hluboké statistické učení bez dozoru a pod dohledem - Výměna souborů - Github". github.com/pierrebaudot/infotopopy/. Citováno 26. září 2020.
- Baudot, P .; Bennequin, D. (2015). „Homologická podstata entropie“ (PDF). Entropie. 17 (5): 1–66. Bibcode:2015Entrp..17.3253B. doi:10,3390 / e17053253.
- Bell, A J (2003), Mřížka spolu informací [1]
- Fano, RM (1961), Přenos informací: Statistická teorie komunikace, MIT Press, Cambridge, MA.
- Garner W R (1962). Nejistota a struktura jako psychologické koncepty, JohnWiley & Sons, New York.
- Han, TS (1978). „Nezáporné míry entropie vícerozměrných symetrických korelací“. Informace a kontrola. 36 (2): 133–156. doi:10.1016 / s0019-9958 (78) 90275-9.
- Han, TS (1980). „Vícenásobné vzájemné informace a vícenásobné interakce s údaji o frekvenci“. Informace a kontrola. 46: 26–45. doi:10.1016 / s0019-9958 (80) 90478-7.
- Hu Kuo Tin (1962), O množství informací. Teorie Probab. Appl., 7 (4), 439-44. PDF
- Jakulin A & Bratko I (2003a). Analysing Attribute Dependencies, in N Lavraquad {c}, D Gamberger, L Todorovski & H Blockeel, eds, Sborník příspěvků ze 7. evropské konference o zásadách a praxi získávání znalostí v databázích, Springer, Cavtat-Dubrovník, Chorvatsko, s. 229–240.
- Jakulin A & Bratko I (2003b). Kvantifikace a vizualizace interakcí atributů [2].
- Margolin, A; Wang, K; Califano, A; Nemenman, I (2010). "Multivariační závislost a odvození genetických sítí". IET Syst Biol. 4 (6): 428–440. arXiv:1001.1681. doi:10.1049 / iet-syb.2010.0009. PMID 21073241. S2CID 14280921.
- McGill, W J (1954). "Vícerozměrný přenos informací". Psychometrika. 19 (2): 97–116. doi:10.1007 / bf02289159. S2CID 126431489.
- Moore JH, Gilbert JC, Tsai CT, Chiang FT, Holden T, Barney N, White BC (2006). Flexibilní výpočetní rámec pro detekci, charakterizaci a interpretaci statistických vzorců epistázy v genetických studiích náchylnosti k lidským chorobám, Journal of Theoretical Biology 241, 252-261. [3]
- Nemenman I (2004). Informační teorie, závislost více proměnných a odvození genetické sítě [4].
- Pearl, J (1988), Pravděpodobnostní uvažování v inteligentních systémech: sítě pravděpodobného závěru, Morgan Kaufmann, San Mateo, CA.
- Tsujishita, T (1995), „O trojitých vzájemných informacích“, Pokroky v aplikované matematice 16, 269-274.
- Chanda, P; Zhang, A; Brazeau, D; Sucheston, L; Freudenheim, JL; Ambrosone, C; Ramanathan, M (2007). „Informační teoretická metrika pro vizualizaci interakcí gen-prostředí“. American Journal of Human Genetics. 81 (5): 939–63. doi:10.1086/521878. PMC 2265645. PMID 17924337.
- Chanda, P; Sucheston, L; Zhang, A; Brazeau, D; Freudenheim, JL; Ambrosone, C; Ramanathan, M (2008). „AMBIENCE: nový přístup a efektivní algoritmus pro identifikaci informativních genetických a environmentálních asociací se složitými fenotypy“. Genetika. 180 (2): 1191–210. doi:10.1534 / genetika.108.088542. PMC 2567367. PMID 18780753.
- Killian, B J; Kravitz, JY; Gilson, M K (2007). „Extrakce konfigurační entropie z molekulárních simulací pomocí expanzní aproximace“. J. Chem. Phys. 127 (2): 024107. Bibcode:2007JChPh.127b4107K. doi:10.1063/1.2746329. PMC 2707031. PMID 17640119.
- LeVine MV, Weinstein H (2014), NbIT - Nová analýza teorie alosterických mechanismů založená na teorii informací odhaluje rezidua, která jsou základem funkce v leucinovém transportéru LeuT. PLoS výpočetní biologie. [5]
- Pandey, Biswajit; Sarkar, Suman (2017). „Kolik toho galaxie ví o svém velkém prostředí ?: Informační teoretická perspektiva“. Měsíční oznámení dopisů Královské astronomické společnosti. 467 (1): L6. arXiv:1611.00283. Bibcode:2017MNRAS.467L ... 6P. doi:10.1093 / mnrasl / slw250. S2CID 119095496.
- https://www3.nd.edu/~jnl/ee80653/Fall2005/tutorials/sunil.pdf
- Yeung R W (1992). Nový pohled na Shannonova informační opatření. v transakcích IEEE o teorii informací.