Dag 19

Linjär algebra

Hoppa till: navigering, sök

[redigera] 7.1 Egenvärden och egenvektorer

Börja gärna med att läsa igenom de sista sidorna av avsnitt 2.3, där begreppen egenvärde och egenvektor introduceras, på nytt. Vi har nu anledning att återvända till detta begrepp eftersom vi nyligen lärt oss hur man kan byta bas och sett att (och hur) matrisen som beskriver en linjär avbildning beror på valet av bas. Detta leder till den naturliga frågan: Givet en linjär avbildning, vilken bas skall man välja för att få en så enkel matris som möjligt? Svaret är en bas av egenvektorer, eller i de fall där en sådan bas inte existerar, något som är så likt en sådan bas som möjligt. Detta är alltså anledningen till att vi studerar egenvärden och egenvektorer, men mer om det i nästa avsnitt. Först måste vi lära oss några begrepp och metoder.

Definitionen av egenvektor för $A$ innebär att det är en vektor $v$ som av $A$ avbildas på en vektor parallell med $v$ själv. (Observera att detta bara är meningsfullt för kvadratiska matriser $A$ - den vektor man får ut ur transformationen måste ligga i samma rum som den ursprungliga vektorn för att de skall kunna vara parallella.) Exempelvis är alla vektorer i $xy$-planet egenvektorer med egenvärdet ett, om $A$ beskriver spegling i $xy$-planet.

Så hur hittar man egenvärden och egenvektorer? Ibland kan man göra ett geometriskt resonemang som med speglingen ovan, men oftast använder man sig av följande resonemang:

Det finns en vektor $x \neq 0$ med $Ax=\lambda x$ för något $\lambda \Leftrightarrow$

Det finns en vektor $x \neq 0$ sådan att $(\lambda I -A)x=0 \Leftrightarrow$

$det(\lambda I -A)=0$

Sista ekvivalensen kommer från sats 6.4.5. (Denna sats används gång på gång och länkar ihop många grundläggande begrepp i den linjära algebra. På grund av sin centrala ställaning kallas den ibland huvudsatsen i linjär algebra.)

Nu har vi reducerat problemet att avgöra om $\lambda$ är egenvärde till att lösa $det(\lambda I -A)=0$, som kallas den karakteristiska ekvationen för $A$. Detta visar sig vara ett polynom i $\lambda$ av grad $n$ (där $n$ är antalet rader i $A$). (Kan du bevisa det med induktion?) Det följer av algebrans fundamentalsats att en $n \times n$-matris har precis $n$ komplexa egenvärden med multiplicitet räknat. (Nu är ett gyllene tillfälle att repetera vad vi lärde oss om polynom under dag 3, för det kommer vi att använda flitigt för att bestämma egenvärden.)

När man väl har fått fram ett egenvärde $\lambda$ så är mängden av alla egenvektorer till just $\lambda$ ett delrum till $R^n$. För att få reda på hur stort det är får man lösa $(\lambda I -A)x=0$. Läs noggrant igenom exempel 2 och sedan exempel 5 för att se hur detta går till i praktiken. När du sedan läser igenom hela avsnittet kan jag rekommendera att du försöker lära dig bevisen för satserna 7.1.3 och 7.1.4. De visar på den linjära algebrans elegans, har man förstått de grundläggande begreppen (vilket tar tid och inte är så lätt alla gånger) så blir många bevis både korta och enkla.


Gör följande övningar i Avsnitt 7.1 första hand:

  • 7.1.2abcd, 7.1.3abcd, 7.1.5acf, 7.1.6acf

Har du tid över kan du göra även:

  • 7.1.8a, 7.19a, 7.1.10abc, 7.1.11 och 7.1.23

De svar som inte finns i facit finns här utom Svar till 7.1.23.


[redigera] 7.2 Diagonalisering

Som nämndes i läsanvisningen till 7.1 är poängen med egenvektorer att en bas av sådana till en avbildningen gör avbildningens matris så enkel som möjligt. Vi skall i detta avsnitt lära oss hur man tar reda på om en sådan bas existerar för en given avbildning och hur man i så fall konstruerar den.

Har man förstått matrismultiplikation är det inte så svårt att se att en kvadratisk matris har en bas av egenvektorer om och endast om det finns en inverterbar kvadratisk matris $P$ sådan att $P{-1}AP=D$ är $D$ är en diagonalmatris. Försäkra dig om att du förstår beviset som finns på sidorna 270-271.

Matriser som har en bas av egenvektorer är alltså precis de som genom lämpligt basbyte kan omvandlas till diagonalmatriser. Detta ger oss ett "recept" för diagonalisering som finns på sidan 371 i boken. Läs noga exempel 1 och 2 som ger typiska exempel på hur denna metod används.

Sedan visas att egenvektorer som hör till olika egenvärden alltid blir linjärt oberoende. Av detta följer att om karakteristiska ekvationen bara har enkelrötter (= matrisen har $n$ olika egenvärden) så är matrisen diagonaliserbar. I själva verket kan sats 7.2.2 dras ett steg längre till att säga att om man konstruerar linjärt oberoende mängder i olika egenrum och sedan slår ihop dem får man en linjärt oberoende mängd. Ett annat sätt att uttrycka detta är sats 7.2.4

En matris $A$ är diagonaliserbar om och endast om algebraiska multipliciteten (=multipliciteten som rot till karakteristiska ekvationen) är lika med den geometriska multipliciteten (=dimensionen av egenrummet) för varje egenvärde $\lambda$. En konsekvens är att man bara behöver titta närmare på egenrum till multipla egenvärden då man undersöker om en matris är diagonaliserbar. Till enkla egenvärden finns alltid precis ett endimensionellt egenrum.


Gör följande övningar i Avsnitt 7.2 första hand:

  • 7.2.8, 7.2.10, 7.2.12, 7.2.13, 7.2.14 och 7.2.15

Har du tid över kan du göra även:

  • 7.2.19

De svar som inte finns i facit finns här.

Den här artikeln är hämtad från http://wiki.math.se/wikis/5b4046_0701/index.php/Dag_19
Personliga verktyg