Vlastní čísla a vlastní vektory - Eigenvalues and eigenvectors
v lineární algebra, an vlastní vektor (/ˈaɪɡənˌprotiɛkt.r/) nebo charakteristický vektor a lineární transformace je nenulová vektor to se mění o skalární faktor, když se na něj použije lineární transformace. Korespondence vlastní číslo, často označované ,[1] je faktor, kterým se vlastní vektor zmenší.
Geometricky, vlastní vektor, odpovídající a nemovitý nenulová vlastní hodnota, ukazuje ve směru, ve kterém je natažené transformací a vlastní hodnota je faktor, kterým se protáhne. Pokud je vlastní hodnota záporná, směr je obrácen.[2] Volně řečeno, ve vícerozměrné podobě vektorový prostor, vlastní vektor se neotáčí.
Formální definice
Li T je lineární transformace z vektorového prostoru PROTI přes pole F do sebe a proti je nenulové vektor v PROTI, pak proti je vlastní vektor T -li T(proti) je skalární násobek proti. To lze zapsat jako
kde λ je skalární F, známý jako vlastní číslo, charakteristická hodnotanebo charakteristický kořen spojený s proti.
Existuje přímá korespondence mezi n-podle-n čtvercové matice a lineární transformace z n-dimenzionální vektorový prostor do sebe, daný základ vektorového prostoru. Proto je v konečně-dimenzionálním vektorovém prostoru ekvivalentní definovat vlastní čísla a vlastní vektory pomocí jazyka jazyka matice nebo jazyk lineárních transformací.[3][4]
Li PROTI je konečný rozměr, výše uvedená rovnice je ekvivalentní[5]
kde A je maticová reprezentace T a u je vektor souřadnic proti.
Přehled
Vlastní čísla a vlastní vektory jsou prominentní v analýze lineárních transformací. Předpona vlastní je převzato z Němec slovo vlastní (příbuzný s Angličtina slovo vlastní ) pro „správné“, „charakteristické“, „vlastní“.[6][7] Původně se používalo ke studiu hlavní osy rotačního pohybu tuhá tělesa vlastní čísla a vlastní vektory mají širokou škálu aplikací, například v analýza stability, vibrační analýza, atomové orbitaly, Rozpoznávání obličeje, a maticová diagonalizace.
V podstatě vlastní vektor proti lineární transformace T je nenulový vektor, který, když T je použito, nemění směr. Přihlašování T do vlastního vektoru změní pouze vlastní vektor podle skalární hodnoty λ, nazývané vlastní číslo. Tuto podmínku lze zapsat jako rovnici
označované jako rovnice vlastního čísla nebo vlastní rovnice. Obecně, λ může být jakýkoli skalární. Například, λ může být záporný, v takovém případě vlastní vektor obrací směr jako součást změny měřítka, nebo může být nulový nebo komplex.

The Mona Lisa zde uvedený příklad poskytuje jednoduchou ilustraci. Každý bod na malbě lze reprezentovat jako vektor směřující od středu malby k tomuto bodu. Lineární transformace se v tomto příkladu nazývá a smykové mapování. Body v horní polovině se posunou doprava a body ve spodní polovině se posunou doleva, úměrně tomu, jak daleko jsou od vodorovné osy, která prochází středem obrazu. Vektory ukazující na každý bod v původním obrázku jsou proto nakloněny doprava nebo doleva a transformací jsou zvětšeny nebo zmenšeny. Body podél horizontální osa se při použití této transformace vůbec nepohybuje. Každý vektor, který směřuje přímo doprava nebo doleva bez svislé komponenty, je tedy vlastním vektorem této transformace, protože mapování nezmění svůj směr. Navíc všechny tyto vlastní vektory mají vlastní hodnotu rovnou jedné, protože mapování také nemění jejich délku.
Lineární transformace mohou mít mnoho různých forem, mapování vektorů v různých vektorových prostorech, takže vlastní vektory mohou mít také mnoho podob. Například lineární transformace může být a operátor diferenciálu jako , v tom případě jsou vlastní vektory nazývány funkcí vlastní funkce které jsou škálovány tímto diferenciálním operátorem, například
Alternativně může mít lineární transformace podobu n podle n matice, v tom případě jsou vlastní vektory n o 1 matici. Pokud je lineární transformace vyjádřena ve formě n podle n matice A, potom lze rovnici vlastních čísel pro lineární transformaci výše přepsat jako násobení matice
kde vlastní vektor proti je n o 1 matici. Pro matici lze použít vlastní čísla a vlastní vektory rozložit matici — Například od úhlopříčka to.
Vlastní čísla a vlastní vektory dávají vzniknout mnoha úzce souvisejícím matematickým konceptům a předponě vlastní se při jejich pojmenování používá liberálně:
- Sada všech vlastních vektorů lineární transformace, každá spárovaná s odpovídající vlastní hodnotou, se nazývá vlastní systém této transformace.[8][9]
- Sada všech vlastních vektorů T odpovídající stejné vlastní hodnotě, společně s nulovým vektorem, se nazývá an vlastní prostor, nebo charakteristický prostor z T spojené s touto vlastní hodnotou.[10]
- Pokud je sada vlastních vektorů T tvoří a základ domény T, pak se tento základ nazývá vlastní základna.
Dějiny
Vlastní čísla se často zavádějí v kontextu lineární algebra nebo teorie matic. Historicky však vznikly při studiu kvadratické formy a diferenciální rovnice.
V 18. století Leonhard Euler studoval rotační pohyb a tuhé tělo, a objevil význam hlavní osy.[A] Joseph-Louis Lagrange si uvědomil, že hlavní osy jsou vlastní vektory setrvačné matice.[11]
Na počátku 19. století Augustin-Louis Cauchy viděl, jak lze jejich práci použít ke klasifikaci kvadrické povrchy, a zobecnil to na libovolné rozměry.[12] Cauchy také vytvořil termín racine caractéristique (charakteristický kořen), pro to, co se nyní nazývá vlastní číslo; jeho funkční období přežije v charakteristická rovnice.[b]
Později, Joseph Fourier použil práci Lagrangeových a Pierre-Simon Laplace vyřešit rovnice tepla podle oddělení proměnných ve své slavné knize z roku 1822 Théorie analytique de la chaleur.[13] Charles-François Sturm dále rozvinul Fourierovy myšlenky a upozornil je na Cauchyho, který je spojil se svými vlastními myšlenkami a dospěl k tomu, že skutečné symetrické matice mají skutečná vlastní čísla.[12] Toto bylo rozšířeno o Charles Hermite v roce 1855 k tomu, co se nyní nazývá Hermitovské matice.[14]
Přibližně ve stejnou dobu Francesco Brioschi dokázal, že vlastní hodnoty ortogonální matice ležet na jednotkový kruh,[12] a Alfred Clebsch našel odpovídající výsledek pro zkosené symetrické matice.[14] Konečně, Karl Weierstrass vyjasnil důležitý aspekt v EU teorie stability začal Laplace tím, že si to uvědomil vadné matice může způsobit nestabilitu.[12]
Mezitím, Joseph Liouville studoval problémy s vlastními čísly podobné problémům se Sturmem; disciplína, která vyrostla z jejich práce, se nyní nazývá Teorie Sturm – Liouville.[15] Schwarz prostudoval první vlastní hodnotu Laplaceova rovnice o obecných doménách na konci 19. století, zatímco Poincaré studoval Poissonova rovnice o pár let později.[16]
Na začátku 20. století David Hilbert studoval vlastní čísla integrální operátory prohlížením operátorů jako nekonečných matic.[17] Byl první, kdo použil Němec slovo vlastní, což znamená „vlastní“,[7] k označení vlastních čísel a vlastních vektorů v roce 1904,[C] i když možná sledoval související použití od Hermann von Helmholtz. Po nějakou dobu byl standardní termín v angličtině „správná hodnota“, ale výraznější výraz „eigenvalue“ je dnes standardem.[18]
První numerický algoritmus pro výpočet vlastních čísel a vlastních vektorů se objevil v roce 1929, kdy Richard von Mises zveřejnil metoda napájení. Jedna z nejpopulárnějších metod současnosti, Algoritmus QR, navrhl nezávisle John G. F. Francis[19] a Věra Kublanovská[20] v roce 1961.[21][22]
Vlastní čísla a vlastní vektory matic
Vlastní čísla a vlastní vektory jsou studentům často představovány v rámci kurzů lineární algebry zaměřených na matice.[23][24]Kromě toho lze lineární transformace přes konečný trojrozměrný vektorový prostor reprezentovat pomocí matic,[25][4] což je obzvláště běžné v numerických a výpočetních aplikacích.[26]

Zvážit n-dimenzionální vektory, které jsou vytvořeny jako seznam n skaláry, jako jsou trojrozměrné vektory
O těchto vektorech se říká, že jsou skalární násobky navzájem, nebo paralelní nebo kolineární, pokud existuje skalár λ takhle
V tomto případě .
Nyní zvažte lineární transformaci n-dimenzionální vektory definované pomocí n podle n matice A,
nebo
kde pro každý řádek
- .
Pokud k tomu dojde proti a w jsou skalární násobky, tedy pokud
(1)
pak proti je vlastní vektor lineární transformace A a měřítkový faktor λ je vlastní číslo odpovídající tomuto vlastnímu vektoru. Rovnice (1) je rovnice vlastního čísla pro matici A.
Rovnice (1) lze uvést rovnocenně jako
(2)
kde Já je n podle n matice identity a 0 je nulový vektor.
Vlastní čísla a charakteristický polynom
Rovnice (2) má nenulové řešení proti kdyby a jen kdyby the určující matice (A − λI) je nula. Proto vlastní čísla z A jsou hodnoty λ které splňují rovnici
(3)
Použitím Leibnizovo pravidlo pro determinant, levá strana rovnice (3) je polynomiální funkce proměnné λ a stupeň tohoto polynomu je n, pořadí matice A. Své koeficienty závisí na položkách A, kromě toho, že jeho termín stupně n je vždy (-1)nλn. Tento polynom se nazývá charakteristický polynom z A. Rovnice (3) se nazývá charakteristická rovnice nebo sekulární rovnice z A.
The základní věta o algebře znamená, že charakteristický polynom an n-podle-n matice A, což je polynom stupně n, může být započteno do produktu n lineární výrazy,
(4)
kde každý λi může být skutečné, ale obecně je to komplexní číslo. Čísla λ1, λ2, ... λn, které nemusí mít všechny odlišné hodnoty, jsou kořeny polynomu a jsou vlastními čísly A.
Jako krátký příklad, který je podrobněji popsán v části s příklady níže, zvažte matici
Vezmeme-li determinant (A − λI), charakteristický polynom z A je
Nastavením charakteristického polynomu na nulu má kořeny v λ = 1 a λ = 3, což jsou dvě vlastní čísla A. Vlastní vektory odpovídající každému vlastnímu číslu lze najít řešením pro komponenty proti v rovnici . V tomto příkladu jsou vlastní vektory jakékoli nenulové skalární násobky
Pokud jsou záznamy matice A jsou všechna reálná čísla, pak koeficienty charakteristického polynomu budou také reálná čísla, ale vlastní čísla mohou stále mít nenulové imaginární části. Záznamy příslušných vlastních vektorů proto mohou mít také nenulové imaginární části. Podobně mohou být vlastní čísla iracionální čísla i když všechny položky z A jsou racionální čísla nebo i když jsou všechna celá čísla. Pokud však položky z A všichni jsou algebraická čísla, která zahrnují racionály, vlastní čísla jsou komplexní algebraická čísla.
Nereálné kořeny skutečného polynomu se skutečnými koeficienty lze seskupit do dvojic komplexní konjugáty, jmenovitě s tím, že dva členové každé dvojice mají imaginární části, které se liší pouze znaménkem a stejnou skutečnou částí. Pokud je stupeň lichý, pak podle věta o střední hodnotě alespoň jeden z kořenů je skutečný. Proto jakýkoli skutečná matice s lichým řádem má alespoň jedno skutečné vlastní číslo, zatímco skutečná matice se sudým řádem nemusí mít žádná skutečná vlastní čísla. Vlastní vektory spojené s těmito komplexními vlastními čísly jsou také složité a objevují se také ve složitých konjugovaných párech.
Algebraická multiplicita
Nechat λi být vlastním číslem n podle n matice A. The algebraická multiplicita μA(λi) vlastního čísla je jeho multiplicita jako kořen charakteristického polynomu, tj. největšího celého čísla k takový, že (λ − λi)k rozděluje rovnoměrně ten polynom.[10][27][28]
Předpokládejme matici A má rozměr n a d ≤ n odlišné vlastní hodnoty. Vzhledem k tomu, že rovnice (4) určuje charakteristický polynom A do produktu n lineární termíny, přičemž některé termíny se mohou opakovat, lze charakteristický polynom namísto toho zapsat jako produkt d výrazy, které každý odpovídá zřetelné vlastní hodnotě a jsou zvýšeny na moc algebraické multiplicity,
Li d = n pak je pravá strana produktem n lineární termíny a to je stejné jako rovnice (4). Velikost algebraické multiplicity každého vlastního čísla souvisí s dimenzí n tak jako
Li μA(λi) = 1, tedy λi se říká, že je jednoduchá vlastní hodnota.[28] Li μA(λi) se rovná geometrické multiplicitě λi, yA(λi), definovaný v další části λi se říká, že je polojednoduché vlastní číslo.
Vlastní prostory, geometrická multiplicita a vlastní základy pro matice
Vzhledem k určité vlastní hodnotě λ z n podle n matice A, definovat soubor E být všechny vektory proti které splňují rovnici (2),
Na jedné straně je tato sada přesně jádro nebo prázdný prostor matice (A − λI). Na druhou stranu, podle definice, jakýkoli nenulový vektor, který splňuje tuto podmínku, je vlastním vektorem A spojený s λ. Takže sada E je svaz nulového vektoru se sadou všech vlastních vektorů A spojený s λ, a E se rovná prázdnému prostoru (A − λI). E se nazývá vlastní prostor nebo charakteristický prostor z A spojený s λ.[29][10] Obecně λ je komplexní číslo a vlastní vektory jsou komplexní n o 1 matici. Vlastností prázdného prostoru je, že je to lineární podprostor, tak E je lineární podprostor ℂn.
Protože vlastní prostor E je lineární podprostor, to je Zavřeno pod přidáním. To znamená, že pokud dva vektory u a proti patří do sady E, psaný u, proti ∈ E, pak (u + proti) ∈ E nebo ekvivalentně A(u + proti) = λ(u + proti). To lze zkontrolovat pomocí distribuční vlastnictví násobení matic. Podobně proto E je lineární podprostor, je uzavřen pod skalárním násobením. To je, pokud proti ∈ E a α je komplexní číslo, (αv) ∈ E nebo ekvivalentně A(αproti) = λ(αv). To lze zkontrolovat poznamenáním, že násobení komplexních matic komplexními čísly je komutativní. Tak dlouho jak u + proti a αv nejsou nula, jsou také vlastními vektory A spojený s λ.
Dimenze vlastního prostoru E spojený s λnebo ekvivalentně maximální počet lineárně nezávislých vlastních vektorů spojených s λ, se označuje jako vlastní číslo geometrická multiplicita yA(λ). Protože E je také prázdný prostor (A − λI), geometrická multiplicita λ je rozměr prázdného prostoru (A − λI), také nazývaný neplatnost z (A − λI), který souvisí s dimenzí a hodností (A − λI) tak jako
Z důvodu definice vlastních čísel a vlastních vektorů musí být geometrická multiplicita vlastních čísel alespoň jedna, to znamená, že každá vlastní hodnota má alespoň jeden přidružený vlastní vektor. Geometrická multiplicita vlastního čísla dále nemůže překročit její algebraickou multiplicitu. Dále si pamatujte, že algebraická multiplicita vlastního čísla nemůže překročit n.
Dokázat nerovnost , zvažte, jak definice geometrické multiplicity znamená existenci ortonormální vlastní vektory , takový, že . Můžeme tedy najít (jednotnou) matici jehož první sloupce jsou tyto vlastní vektory a jejichž zbývajícími sloupci může být jakákoli ortonormální sada vektory kolmé k těmto vlastním vektorům . Pak má úplnou hodnost, a proto je invertibilní, a s matice, jejíž horní levý blok je diagonální matice . To z toho vyplývá . Jinými slovy, je podobný , což z toho vyplývá . Ale z definice víme, že obsahuje faktor , což znamená, že algebraická multiplicita musí uspokojit .
Předpokládat má odlišné vlastní hodnoty , kde geometrická multiplicita je . Celková geometrická multiplicita ,
je rozměr součet všech vlastních prostorů vlastních čísel nebo ekvivalentně maximální počet lineárně nezávislých vlastních vektorů . Li , pak
- Přímý součet vlastních prostorů všech Vlastní čísla jsou celý vektorový prostor .
- Základem lze vytvořit z lineárně nezávislé vlastní vektory ; takový základ se nazývá vlastní základna
- Libovolný vektor v lze psát jako lineární kombinaci vlastních vektorů .
Další vlastnosti vlastních čísel
Nechat být libovolný matice komplexních čísel s vlastními hodnotami . Zobrazí se každé vlastní číslo krát v tomto seznamu, kde je algebraická multiplicita vlastního čísla. Vlastnosti této matice a jejích vlastních čísel jsou následující:
- The stopa z , definovaný jako součet jeho diagonálních prvků, je také součtem všech vlastních čísel,
- The určující z je produktem všech vlastních čísel,
- Vlastní čísla th síla ; tj. vlastní čísla , pro jakékoli kladné celé číslo , jsou .
- Matice je invertibilní právě když je každé vlastní číslo nenulové.
- Li je invertibilní, pak vlastní čísla z jsou a geometrická multiplicita každého vlastního čísla se shoduje. Navíc, protože charakteristický polynom inverzní je reciproční polynom originálu vlastní čísla sdílejí stejnou algebraickou multiplicitu.
- Li se rovná jeho konjugovat transponovat , nebo ekvivalentně, pokud je Hermitian, pak je každé vlastní číslo skutečné. Totéž platí pro všechny symetrický skutečná matice.
- Li je nejen Hermitian, ale také pozitivní-definitivní, pozitivní-semidefinitní, negativní-definitivní nebo negativní-semidefinitní, pak každé vlastní číslo je pozitivní, nezáporné, negativní nebo nepříznivé.
- Li je unitární, každé vlastní číslo má absolutní hodnotu .
- -li je matice a jsou jeho vlastní čísla, pak vlastní čísla matice (kde je matice identity) jsou . Navíc pokud , vlastní čísla jsou . Obecněji pro polynom vlastní čísla matice jsou .
Levý a pravý vlastní vektor
Mnoho oborů tradičně představuje vektory jako matice s jedním sloupcem, spíše než jako matice s jedním řádkem. Z tohoto důvodu slovo „vlastní vektor“ v kontextu matic téměř vždy odkazuje na a pravý vlastní vektor, jmenovitě a sloupec vektor, který že jo znásobuje matice v definující rovnici, Rovnice (1),
Problém vlastních čísel a vlastních vektorů lze také definovat pro řádek vektory, které vlevo, odjet násobit matici . V této formulaci je určující rovnice
kde je skalární a je matice. Libovolný vektor řádku splnění této rovnice se nazývá a levý vlastní vektor z a je jeho přidružené vlastní číslo. Vezmeme-li v úvahu tuto rovnici,
Porovnáním této rovnice s rovnicí (1), okamžitě vyplývá, že levý vlastní vektor je stejná jako transpozice pravého vlastního vektoru z , se stejnou vlastní hodnotou. Kromě toho, protože charakteristický polynom z je stejný jako charakteristický polynom z , vlastní čísla levých vlastních vektorů jsou stejná jako vlastní čísla pravých vlastních vektorů .
Diagonalizace a vlastní složení
Předpokládejme vlastní vektory A tvoří základ nebo ekvivalentně A má n lineárně nezávislé vlastní vektory proti1, proti2, ..., protin s přidruženými vlastními hodnotami λ1, λ2, ..., λn. Vlastní čísla nemusí být odlišná. Definujte čtvercovou matici Q jejichž sloupce jsou n lineárně nezávislé vlastní vektory A,
Od každého sloupce Q je vlastní vektor A, pravé násobení A podle Q změní měřítko každého sloupce Q přidruženým vlastním číslem,
S ohledem na to definujte diagonální matici Λ, kde je každý diagonální prvek Λii je vlastní číslo spojené s ith sloupec Q. Pak
Protože sloupce Q jsou lineárně nezávislé, Q je invertibilní. Vpravo vynásobte obě strany rovnice Q−1,
nebo tím, že místo toho levé strany vynásobíte oběma stranami Q−1,
A lze proto rozložit na matici složenou z jejích vlastních vektorů, diagonální matici se svými vlastními hodnotami podél úhlopříčky a inverzní matici vlastních vektorů. Tomu se říká vlastní složení a je to transformace podobnosti. Taková matice A se říká, že je podobný na diagonální matici Λ nebo úhlopříčně. Matice Q je změna základní matice transformace podobnosti. V podstatě matice A a Λ představují stejnou lineární transformaci vyjádřenou ve dvou různých bázích. Vlastní vektory se používají jako základ při reprezentaci lineární transformace jako Λ.
Naopak předpokládejme matici A je diagonalizovatelný. Nechat P být ne-singulární čtvercová matice taková P−1AP je nějaká diagonální matice D. Vlevo vynásobením obou P, AP = PD. Každý sloupec P proto musí být vlastním vektorem A jehož vlastní hodnota je odpovídajícím diagonálním prvkem D. Vzhledem k tomu, že sloupce P musí být lineárně nezávislé pro P být invertibilní, existují n lineárně nezávislé vlastní vektory A. Z toho vyplývá, že vlastní vektory A tvoří základ právě tehdy A je diagonalizovatelný.
Říká se, že matice, která není diagonalizovatelná vadný. U vadných matic se pojem vlastních vektorů zobecňuje na zobecněné vlastní vektory a diagonální matice vlastních čísel se zobecňuje na Jordan normální forma. Přes algebraicky uzavřené pole, libovolná matice A má Jordan normální forma a proto připouští základ zobecněných vlastních vektorů a rozklad na zobecněné vlastní prostory.
Variační charakterizace
V Hermitian v případě, vlastním číslům může být dána variační charakterizace. Největší vlastní hodnota je maximální hodnota kvadratická forma . Hodnota který si toto maximum uvědomuje, je vlastní vektor.
Maticové příklady
Příklad dvourozměrné matice

Zvažte matici
Obrázek vpravo ukazuje účinek této transformace na bodové souřadnice v rovině. Vlastní vektory proti této transformace uspokojit rovnici (1) a hodnoty λ pro které je determinant matice (A − λI) rovná se nula jsou vlastní čísla.
Vezmeme determinant k nalezení charakteristického polynomu A,
Nastavením charakteristického polynomu na nulu má kořeny v λ=1 a λ=3, což jsou dvě vlastní čísla A.
Pro λ=1, Rovnice (2) se stává,
- ;
Libovolný nenulový vektor s proti1 = −proti2 řeší tuto rovnici. Proto,
je vlastní vektor A souhlasí s λ = 1, stejně jako jakýkoli skalární násobek tohoto vektoru.
Pro λ=3, Rovnice (2) se stává
- ;
Libovolný nenulový vektor s proti1 = proti2 řeší tuto rovnici. Proto,
je vlastní vektor A souhlasí s λ = 3, stejně jako jakýkoli skalární násobek tohoto vektoru.
Tedy vektory protiλ=1 a protiλ=3 jsou vlastní vektory A spojené s vlastními hodnotami λ=1 a λ=3, resp.
Příklad trojrozměrné matice
Zvažte matici
Charakteristický polynom z A je
Kořeny charakteristického polynomu jsou 2, 1 a 11, což jsou jediné tři vlastní hodnoty A. Tyto vlastní hodnoty odpovídají vlastním vektorům a nebo jakýkoli jejich nenulový násobek.
Příklad trojrozměrné matice se složitými vlastními hodnotami
Zvažte cyklická permutační matice
Tato matice posune souřadnice vektoru nahoru o jednu pozici a posune první souřadnici dolů. Jeho charakteristický polynom je 1 -λ3, jehož kořeny jsou
kde je imaginární jednotka s
Pro skutečné vlastní číslo λ1 = 1, libovolný vektor se třemi stejnými nenulovými položkami je vlastní vektor. Například,
Pro komplexní konjugovanou dvojici imaginárních vlastních čísel,
Pak
a
Proto další dva vlastní vektory A jsou složité a jsou a s vlastními hodnotami λ2 a λ3, resp. Dva komplexní vlastní vektory se také objevují ve složitém dvojici konjugátů,
Příklad diagonální matice
Matice se vstupy pouze podél hlavní úhlopříčky jsou volány diagonální matice. Vlastní čísla diagonální matice jsou samotné diagonální prvky. Zvažte matici
Charakteristický polynom z A je
který má kořeny λ1=1, λ2=2, a λ3=3. Tyto kořeny jsou diagonální prvky i vlastní číslaA.
Každý diagonální prvek odpovídá vlastnímu vektoru, jehož jediná nenulová složka je ve stejném řádku jako tento diagonální prvek. V tomto příkladu vlastní čísla odpovídají vlastním vektorům,
respektive skalární násobky těchto vektorů.
Příklad trojúhelníkové matice
Matice, jejíž prvky nad hlavní úhlopříčkou jsou všechny nulové, se nazývá a dolní trojúhelníková matice, zatímco matice, jejíž prvky pod hlavní úhlopříčkou jsou všechny nulové, se nazývá an horní trojúhelníková matice. Stejně jako u diagonálních matic jsou vlastní hodnoty trojúhelníkových matic prvky hlavní úhlopříčky.
Zvažte spodní trojúhelníkovou matici,
Charakteristický polynom z A je
který má kořeny λ1=1, λ2=2, a λ3=3. Tyto kořeny jsou diagonální prvky i vlastní číslaA.
Tyto vlastní hodnoty odpovídají vlastním vektorům,
respektive skalární násobky těchto vektorů.
Matice s příkladem opakovaných vlastních čísel
Stejně jako v předchozím příkladu, spodní trojúhelníková matice
má charakteristický polynom, který je produktem jeho diagonálních prvků,
Kořeny tohoto polynomu, a tedy vlastní čísla, jsou 2 a 3. The algebraická multiplicita každého vlastního čísla je 2; jinými slovy jsou oba dvojité kořeny. Součet algebraických multiplicit všech odlišných vlastních čísel je μA = 4 = n, pořadí charakteristického polynomu a rozměr A.
Na druhou stranu geometrická multiplicita vlastní hodnoty 2 je pouze 1, protože jeho vlastní prostor je překlenut pouze jedním vektorem a je tedy jednorozměrný. Podobně geometrická multiplicita vlastní hodnoty 3 je 1, protože její vlastní prostor je překlenut pouze jedním vektorem . Celková geometrická multiplicita yA je 2, což je nejmenší, jaký by mohl být pro matici se dvěma odlišnými vlastními hodnotami. Geometrické multiplicity jsou definovány v pozdější části.
Vlastní hodnota - identita vlastního čísla
Pro Hermitova matice, norma na druhou z jth složka normalizovaného vlastního vektoru lze vypočítat pouze s použitím vlastních čísel matice a vlastních čísel odpovídajících vedlejší matice,
Vlastní čísla a vlastní funkce diferenciálních operátorů
Definice vlastních čísel a vlastních vektorů lineární transformace T remains valid even if the underlying vector space is an infinite-dimensional Hilbert nebo Banachův prostor. A widely used class of linear transformations acting on infinite-dimensional spaces are the diferenciální operátory na funkční prostory. Nechat D be a linear differential operator on the space C∞ of infinitely rozlišitelný real functions of a real argument t. The eigenvalue equation for D je diferenciální rovnice
The functions that satisfy this equation are eigenvectors of D and are commonly called eigenfunctions.
Derivative operator example
Consider the derivative operator with eigenvalue equation
This differential equation can be solved by multiplying both sides by dt/F(t) and integrating. Its solution, the exponenciální funkce
is the eigenfunction of the derivative operator. In this case the eigenfunction is itself a function of its associated eigenvalue. Zejména pro λ = 0 the eigenfunction F(t) je konstanta.
Hlavní vlastní funkce article gives other examples.
Obecná definice
The concept of eigenvalues and eigenvectors extends naturally to arbitrary lineární transformace on arbitrary vector spaces. Nechat PROTI be any vector space over some pole K. z skaláry, and let T be a linear transformation mapping PROTI do PROTI,
We say that a nonzero vector proti ∈ PROTI je vlastní vektor z T if and only if there exists a scalar λ ∈ K. takhle
(5)
This equation is called the eigenvalue equation for T, and the scalar λ je vlastní číslo z T corresponding to the eigenvector proti. T(proti) is the result of applying the transformation T to the vector proti, zatímco λproti is the product of the scalar λ s proti.[38][39]
Eigenspaces, geometric multiplicity, and the eigenbasis
Given an eigenvalue λ, consider the set
which is the union of the zero vector with the set of all eigenvectors associated with λ. E se nazývá vlastní prostor nebo characteristic space z T spojený sλ.
By definition of a linear transformation,
pro (X,y) ∈ PROTI and α ∈ K.. Proto pokud u a proti are eigenvectors of T associated with eigenvalue λ, jmenovitě u,proti ∈ E, pak
So, both u + proti a αproti are either zero or eigenvectors of T spojený s λ, jmenovitě u + proti, αproti ∈ E, a E is closed under addition and scalar multiplication. The eigenspace E spojený s λ is therefore a linear subspace of PROTI.[40]If that subspace has dimension 1, it is sometimes called an eigenline.[41]
The geometrická multiplicita yT(λ) of an eigenvalue λ is the dimension of the eigenspace associated with λ, i.e., the maximum number of linearly independent eigenvectors associated with that eigenvalue.[10][28] By the definition of eigenvalues and eigenvectors, yT(λ) ≥ 1 because every eigenvalue has at least one eigenvector.
The eigenspaces of T always form a přímý součet. As a consequence, eigenvectors of odlišný eigenvalues are always linearly independent. Therefore, the sum of the dimensions of the eigenspaces cannot exceed the dimension n of the vector space on which T operates, and there cannot be more than n distinct eigenvalues.[d]
Any subspace spanned by eigenvectors of T je invariantní podprostor z T, and the restriction of T to such a subspace is diagonalizable. Moreover, if the entire vector space PROTI can be spanned by the eigenvectors of T, or equivalently if the direct sum of the eigenspaces associated with all the eigenvalues of T is the entire vector space PROTI, then a basis of PROTI volal eigenbasis can be formed from linearly independent eigenvectors of T. Když T admits an eigenbasis, T is diagonalizable.
Zero vector as an eigenvector
While the definition of an eigenvector used in this article excludes the nulový vektor, it is possible to define eigenvalues and eigenvectors such that the zero vector is an eigenvector.[42]
Consider again the eigenvalue equation, Equation (5). Define an vlastní číslo to be any scalar λ ∈ K. such that there exists a nonzero vector proti ∈ PROTI satisfying Equation (5). It is important that this version of the definition of an eigenvalue specify that the vector be nonzero, otherwise by this definition the zero vector would allow any scalar in K. to be an eigenvalue. Define an vlastní vektor proti associated with the eigenvalue λ to be any vector that, given λ, satisfies Equation (5). Given the eigenvalue, the zero vector is among the vectors that satisfy Equation (5), so the zero vector is included among the eigenvectors by this alternate definition.
Spektrální teorie
Li λ je vlastní číslo z T, then the operator (T − λI) is not one-to-one, and therefore its inverse (T − λI)−1 neexistuje. The converse is true for finite-dimensional vector spaces, but not for infinite-dimensional vector spaces. In general, the operator (T − λI) may not have an inverse even if λ is not an eigenvalue.
For this reason, in funkční analýza eigenvalues can be generalized to the spectrum of a linear operator T as the set of all scalars λ for which the operator (T − λI) has no ohraničený inverse. The spectrum of an operator always contains all its eigenvalues but is not limited to them.
Associative algebras and representation theory
One can generalize the algebraic object that is acting on the vector space, replacing a single operator acting on a vector space with an reprezentace algebry – an associative algebra acting on a modul. The study of such actions is the field of teorie reprezentace.
The representation-theoretical concept of weight is an analog of eigenvalues, while weight vectors a weight spaces are the analogs of eigenvectors and eigenspaces, respectively.
Dynamické rovnice
Nejjednodušší rozdílové rovnice mít formu
Řešení této rovnice pro X ve smyslu t is found by using its characteristic equation
which can be found by stacking into matrix form a set of equations consisting of the above difference equation and the k – 1 equations giving a k-dimensional system of the first order in the stacked variable vector in terms of its once-lagged value, and taking the characteristic equation of this system's matrix. This equation gives k characteristic roots for use in the solution equation
A similar procedure is used for solving a diferenciální rovnice formuláře
Výpočet
The calculation of eigenvalues and eigenvectors is a topic where theory, as presented in elementary linear algebra textbooks, is often very far from practice.
Classical method
The classical method is to first find the eigenvalues, and then calculate the eigenvectors for each eigenvalue. It is in several ways poorly suited for non-exact arithmetics such as floating-point.
Vlastní čísla
The eigenvalues of a matrix can be determined by finding the roots of the characteristic polynomial. This is easy for matrices, but the difficulty increases rapidly with the size of the matrix.
In theory, the coefficients of the characteristic polynomial can be computed exactly, since they are sums of products of matrix elements; and there are algorithms that can find all the roots of a polynomial of arbitrary degree to any required přesnost.[43] However, this approach is not viable in practice because the coefficients would be contaminated by unavoidable chyby zaokrouhlování, and the roots of a polynomial can be an extremely sensitive function of the coefficients (as exemplified by Wilkinson's polynomial ).[43] Even for matrices whose elements are integers the calculation becomes nontrivial, because the sums are very long; the constant term is the určující, which for an is a sum of different products.[E]
Výslovný algebraic formulas for the roots of a polynomial exist only if the degree is 4 or less. Podle Abel – Ruffiniho věta there is no general, explicit and exact algebraic formula for the roots of a polynomial with degree 5 or more. (Generality matters because any polynomial with degree is the characteristic polynomial of some doprovodná matice řádu .) Therefore, for matrices of order 5 or more, the eigenvalues and eigenvectors cannot be obtained by an explicit algebraic formula, and must therefore be computed by approximate numerické metody. Dokonce exact formula for the roots of a degree 3 polynomial is numerically impractical.
Vlastní vektory
Once the (exact) value of an eigenvalue is known, the corresponding eigenvectors can be found by finding nonzero solutions of the eigenvalue equation, that becomes a soustava lineárních rovnic with known coefficients. For example, once it is known that 6 is an eigenvalue of the matrix
we can find its eigenvectors by solving the equation , to je
This matrix equation is equivalent to two linear equations
- to je
Both equations reduce to the single linear equation . Therefore, any vector of the form , for any nonzero real number , is an eigenvector of with eigenvalue .
Matice above has another eigenvalue . A similar calculation shows that the corresponding eigenvectors are the nonzero solutions of , that is, any vector of the form , for any nonzero real number .
Simple iterative methods
The converse approach, of first seeking the eigenvectors and then determining each eigenvalue from its eigenvector, turns out to be far more tractable for computers. The easiest algorithm here consists of picking an arbitrary starting vector and then repeatedly multiplying it with the matrix (optionally normalising the vector to keep its elements of reasonable size); this makes the vector converge towards an eigenvector. A variation is to instead multiply the vector by ; this causes it to converge to an eigenvector of the eigenvalue closest to .
Li is (a good approximation of) an eigenvector of , then the corresponding eigenvalue can be computed as
kde označuje konjugovat transponovat z .
Modern methods
Efficient, accurate methods to compute eigenvalues and eigenvectors of arbitrary matrices were not known until the QR algorithm was designed in 1961.[43] Kombinace Transformace domácnosti with the LU decomposition results in an algorithm with better convergence than the QR algorithm.[Citace je zapotřebí ] Pro velké Hermitian řídké matice, Lanczosův algoritmus is one example of an efficient iterační metoda to compute eigenvalues and eigenvectors, among several other possibilities.[43]
Most numeric methods that compute the eigenvalues of a matrix also determine a set of corresponding eigenvectors as a by-product of the computation, although sometimes implementors choose to discard the eigenvector information as soon as it is no longer needed.
Aplikace
Eigenvalues of geometric transformations
The following table presents some example transformations in the plane along with their 2×2 matrices, eigenvalues, and eigenvectors.
Škálování | Unequal scaling | Otáčení | Horizontal shear | Hyperbolic rotation | |
---|---|---|---|---|---|
Ilustrace | ![]() | ![]() | ![]() | ![]() | ![]() |
Matice |