Delta pravidlo - Delta rule
![]() | Tento článek má několik problémů. Prosím pomozte vylepši to nebo diskutovat o těchto otázkách na internetu diskusní stránka. (Zjistěte, jak a kdy tyto zprávy ze šablony odebrat) (Zjistěte, jak a kdy odstranit tuto zprávu šablony)
|
v strojové učení, pravidlo delta je klesání učící pravidlo pro aktualizaci vah vstupů na umělé neurony v jednovrstvá neuronová síť.[1] Jedná se o speciální případ obecnějších zpětná propagace algoritmus. Pro neuron s aktivační funkce , pravidlo delta pro je th hmotnost darováno
- ,
kde
je malá konstanta zvaná míra učení | |
je aktivační funkce neuronu | |
je derivát z | |
je cílový výstup | |
je vážený součet vstupů neuronu | |
je skutečný výstup | |
je th vstup. |
To platí a .
Pravidlo delta se běžně uvádí ve zjednodušené formě pro neuron s funkcí lineární aktivace jako
Zatímco pravidlo delta je podobné pravidlu perceptron pravidlo aktualizace, odvození je jiné. Perceptron používá Funkce Heaviside step jako aktivační funkce , a to znamená, že neexistuje na nule a jinde se rovná nule, což znemožňuje přímou aplikaci pravidla delta.
Odvození pravidla delta
Pravidlo delta je odvozeno pokusem minimalizovat chybu ve výstupu neuronové sítě prostřednictvím klesání. Chyba neuronové sítě s výstupy lze měřit jako
- .
V tomto případě bychom chtěli procházet „váhovým prostorem“ neuronu (prostorem všech možných hodnot všech hmotností neuronu) v poměru k gradientu chybové funkce s ohledem na každou váhu. Abychom to mohli udělat, vypočítáme parciální derivace chyby vzhledem ke každé hmotnosti. Pro této hmotnosti, lze tuto derivaci zapsat jako
- .
Protože se týká pouze nás th neuron, můžeme dosadit výše uvedený chybový vzorec při vynechání součtu:
Dále použijeme řetězové pravidlo rozdělit to na dva deriváty:
Abychom našli levou derivaci, jednoduše použijeme řetězové pravidlo:
Abychom našli správnou derivaci, znovu použijeme pravidlo řetězu, tentokrát se odlišujeme s ohledem na celkový vstup do , :
Všimněte si, že výstup th neuron, , je jen aktivační funkce neuronu aplikován na vstup neuronu . Můžeme tedy napsat derivaci s ohledem na jednoduše jako první derivát:
Dále přepisujeme v posledním semestru jako součet za všechny hmotnosti každé váhy krát jeho odpovídající vstup :
Protože se zajímáme pouze o ta váha, jediný relevantní výraz součtu je . Jasně,
- ,
což nám dává naši konečnou rovnici pro gradient:
Jak je uvedeno výše, sestup gradientu nám říká, že naše změna pro každou váhu by měla být úměrná gradientu. Volba konstanty proporcionality a odstranění znaménka mínus, které nám umožní přesunout váhu v záporném směru gradientu, aby se minimalizovala chyba, dospějeme k naší cílové rovnici:
- .
Viz také
- Stochastický gradient
- Zpětná propagace
- Model Rescorla – Wagner - původ pravidla delta
Reference
- ^ Russell, Ingrid. „Pravidlo delty“. University of Hartford. Archivovány od originál dne 4. března 2016. Citováno 5. listopadu 2012.