Vratná rekurentní jednotka - Gated recurrent unit
Vratná rekurentní jednotkas (GRUs) jsou hradlovací mechanismus v rekurentní neuronové sítě, představený v roce 2014 Kyunghyun Cho a kol.[1] GRU je jako dlouhodobá krátkodobá paměť (LSTM) se zapomenutou bránou,[2] ale má méně parametrů než LSTM, protože postrádá výstupní bránu.[3] Bylo zjištěno, že výkon GRU v určitých úlohách polyfonního hudebního modelování, modelování řečových signálů a zpracování přirozeného jazyka je podobný jako u LSTM.[4][5] Ukázalo se, že GRU vykazují lepší výkon u určitých menších a méně častých datových sad.[6][7]
Jak však ukázali Gail Weiss, Yoav Goldberg a Eran Yahav, LSTM je „přísně silnější“ než GRU, protože může snadno provádět neomezené počítání, zatímco GRU nikoli. Proto se GRU nedokáže naučit jednoduché jazyky, které se LSTM naučí.[8]
Podobně, jak ukazují Denny Britz, Anna Goldie, Minh-Thang Luong a Quoc Le z Google Brain „LSTM buňky soustavně překonávají buňky GRU v„ první rozsáhlé analýze variant architektury pro Neural Machine Translation “.[9]
Architektura
Existuje několik variant plné bránové jednotky, přičemž hradlování se provádí pomocí předchozího skrytého stavu a zkreslení v různých kombinacích a zjednodušená forma se nazývá minimální bránová jednotka.[10]
Operátor označuje Produkt Hadamard v následujícím.
Plně bránou jednotka

Zpočátku pro , výstupní vektor je .
Proměnné
- : vstupní vektor
- : výstupní vektor
- : vektor aktivace kandidáta
- : aktualizovat vektor brány
- : resetovat vektor brány
- , a : matice parametrů a vektor
- : Originál je a sigmoidní funkce.
- : Originál je a hyperbolická tečna.
Jsou možné alternativní aktivační funkce, pokud .



Alternativní formuláře lze vytvořit změnou a [11]
- Typ 1, každá brána závisí pouze na předchozím skrytém stavu a zkreslení.
- Typ 2, každá brána závisí pouze na předchozím skrytém stavu.
- Typ 3, každá brána se počítá pouze pomocí zkreslení.
Minimální bránou jednotka
Minimální hradlová jednotka je podobná plně hradlované jednotce, kromě toho, že vektor aktualizace a resetování brány je sloučen do brány pro zapomenutí. To také znamená, že rovnice pro výstupní vektor musí být změněna:[12]
Proměnné
- : vstupní vektor
- : výstupní vektor
- : vektor aktivace kandidáta
- : zapomeňte na vektor
- , a : matice parametrů a vektor
Reference
- ^ Cho, Kyunghyun; van Merrienboer, Bart; Gulcehre, Caglar; Bahdanau, Dzmitry; Bougares, Fethi; Schwenk, Holger; Bengio, Yoshua (2014). „Učení frázových reprezentací pomocí kodéru-dekodéru RNN pro statistický strojový překlad“. arXiv:1406.1078. Citovat deník vyžaduje
| deník =
(Pomoc) - ^ Felix Gers; Jürgen Schmidhuber; Fred Cummins (1999). „Naučit se zapomenout: Kontinuální předpověď pomocí LSTM“. Proc. ICANN'99, IEE, Londýn. 1999: 850–855. doi:10.1049 / cp: 19991218. ISBN 0-85296-721-7.
- ^ „Výukový program pro rekurentní neuronovou síť, část 4 - Implementace GRU / LSTM RNN s Pythonem a Theano - WildML“. Wildml.com. 2015-10-27. Citováno 18. května 2016.
- ^ Ravanelli, Mirco; Brakel, Philemon; Omologo, Maurizio; Bengio, Yoshua (2018). "Světelně řízené rekurentní jednotky pro rozpoznávání řeči". Transakce IEEE na nová témata ve výpočetní inteligenci. 2 (2): 92–102. arXiv:1803.10225. doi:10.1109 / TETCI.2017.2762739. S2CID 4402991.
- ^ Su, Yuahang; Kuo, Jay (2019). „Na prodlouženou dlouhodobou krátkodobou paměť a závislou obousměrnou rekurentní neuronovou síť“. arXiv:1803.01686.
- ^ Su, Yuanhang; Kuo, Jay (2014). "Empirické hodnocení gated rekurentních neuronových sítí na sekvenčním modelování". arXiv:1412.3555 [cs.NE ].
- ^ Gruber, N .; Jockisch, A. (2020), „Jsou buňky GRU konkrétnější a buňky LSTM citlivější v motivové klasifikaci textu?“, Hranice v umělé inteligenci, 3, doi:10,3389 / frai.2020.00040, S2CID 220252321
- ^ Weiss, Gail; Goldberg, Yoav; Yahav, Eran (2018). „O praktické výpočetní síle konečných přesných RNN pro rozpoznávání jazyků“. arXiv:1805.04908 [cs.NE ].
- ^ Britz, Denny; Goldie, Anna; Luong, Minh-Thang; Le, Quoc (2018). "Masivní průzkum architektur překladu neurálních strojů". arXiv:1703.03906 [cs.NE ].
- ^ Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun; Bengio, Yoshua (2014). "Empirické hodnocení gated rekurentních neuronových sítí na modelování sekvence". arXiv:1412.3555 [cs.NE ].
- ^ Dey, Rahul; Salem, Fathi M. (2017-01-20). „Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks“. arXiv:1701.05923 [cs.NE ].
- ^ Sakra, Joel; Salem, Fathi M. (2017-01-12). "Zjednodušené minimální odchylky brány s rekurencí neuronových sítí". arXiv:1701.03452 [cs.NE ].